¿Eres tú o un virtual tu? ¿Son los chatbots demasiado reales?

En un episodio reciente del programa de televisión de HBO, Silicon Valley, el ingeniero de redes de Pied Piper Bertram Gilfoyle (interpretado por el actor Martin Starr), crea un chatbot que llama "Hijo de Anton", que interactúa en la red de la compañía con otros empleados automáticamente, haciéndose pasar por Gilfoyle

Durante un tiempo, el desarrollador de Pied Piper, Dinesh Chugtai (interpretado por Kumail Nanjiani), conversa con el bot hasta que, durante una interacción, ve a Gilfoyle parado cerca, lejos de su computadora. Al descubrir que ha estado chateando con AI, Dinesh está enojado. Pero luego pide usar "Hijo de Antón" para automatizar sus interacciones con un empleado molesto.

Al igual que Dinesh, odiamos la idea de ser engañados para interactuar con un software que se hace pasar por una persona. Pero también como Dinesh, podemos enamorarnos de la idea de tener un software que interactúe como nosotros para que no tengamos que hacerlo nosotros mismos.

[Relacionado:[Related: ¿La IA de Google te hará artificialmente estúpido? ]

Estamos a punto de enfrentarnos a la IA que se hace pasar por una persona. En este momento, la IA que habla o chatea se puede clasificar de la siguiente manera:

  1. interactúa como un humano, pero se identifica como AI
  2. se hace pasar por humano, pero no por una persona específica
  3. se hace pasar por una persona específica

Lo que todos estos tres tienen en común es que, independientemente de sus pretensiones hacia la humanidad, todos intentan comportarse como humanos. Incluso los chatbots que se identifican como software están cada vez más diseñados para interactuar con el ritmo, el tono e incluso los defectos de la interacción humana.

[Notepierdas:[Don’tmiss: Mike Elgan todas las semanas en Insider Pro]

Recientemente detallé en este espacio la sutil diferencia entre las dos implementaciones públicas de Google de su tecnología Duplex. Se utiliza para responder llamadas cuando alguien llama a un teléfono Google Pixel es el primer tipo de IA: se identifica a la persona que llama como AI.

El otro uso de Duplex, que fue el primer Google demostrado en público, comenzó como el segundo tipo. Después

En un episodio reciente del programa de televisión de HBO, Silicon Valley, el ingeniero de redes de Pied Piper Bertram Gilfoyle (interpretado por el actor Martin Starr), crea un chatbot que llama "Hijo de Anton", que interactúa en la red de la compañía con otros empleados automáticamente, haciéndose pasar por Gilfoyle

Durante un tiempo, el desarrollador de Pied Piper, Dinesh Chugtai (interpretado por Kumail Nanjiani), conversa con el bot hasta que, durante una interacción, ve a Gilfoyle parado cerca, lejos de su computadora. Al descubrir que ha estado chateando con AI, Dinesh está enojado. Pero luego pide usar "Hijo de Antón" para automatizar sus interacciones con un empleado molesto.

Al igual que Dinesh, odiamos la idea de ser engañados para interactuar con un software que se hace pasar por una persona. Pero también como Dinesh, podemos enamorarnos de la idea de tener un software que interactúe como nosotros para que no tengamos que hacerlo nosotros mismos.

[Relacionado:[Related: ¿La IA de Google te hará artificialmente estúpido? ]

Estamos a punto de enfrentarnos a la IA que se hace pasar por una persona. En este momento, la IA que habla o chatea se puede clasificar de la siguiente manera:

  1. interactúa como un humano, pero se identifica como AI
  2. se hace pasar por humano, pero no por una persona específica
  3. se hace pasar por una persona específica

Lo que todos estos tres tienen en común es que, independientemente de sus pretensiones hacia la humanidad, todos intentan comportarse como humanos. Incluso los chatbots que se identifican como software están cada vez más diseñados para interactuar con el ritmo, el tono e incluso los defectos de la interacción humana.

[Notepierdas:[Don’tmiss: Mike Elgan todas las semanas en Insider Pro]

Recientemente detallé en este espacio la sutil diferencia entre las dos implementaciones públicas de Google de su tecnología Duplex. Se utiliza para responder llamadas cuando alguien llama a un teléfono Google Pixel es el primer tipo de IA: se identifica a la persona que llama como AI.

El otro uso de Duplex, que fue el primer Google demostrado en público, comenzó como el segundo tipo. Después de iniciar una reserva de restaurante utilizando el Asistente de Google, Duplex llamará a un restaurante, interactuará como una persona, pero no como una persona viva específica, y no se identificará como AI. Ahora Google ha agregado una vaga revelación al comienzo de la llamada.

Y, de hecho, este es el tipo principal utilizado por los chatbots de servicio al cliente en proliferación de compañías como Instabot, LivePerson, Imperson, Ada, LiveChat, HubSpot y Chatfuel. Los chatbots han demostrado ser una bendición para el servicio al cliente y las ventas. Y todos se identifican como bots.

Gartner estimó el año pasado que una cuarta parte de todas las operaciones de servicio al cliente y soporte integrarán chatbots de inteligencia artificial para el próximo año, en comparación con menos del dos por ciento en 2017.

Los chatbots de IA están en todas partes (y en cualquiera)

Cuando pensamos en "servicio al cliente", pensamos en llamar por teléfono específicamente para obtener ayuda de algún tipo. Pero, cada vez más, esta interacción ocurre a través de sitios web y aplicaciones como recordatorios o notificaciones. La aplicación Uber le notifica que su automóvil está llegando. Las aplicaciones de aerolíneas le informan sobre los cambios en su vuelo. Por lo general, corresponde al cliente asumir que la interacción proviene de un ser humano o una máquina.

¿A alguien le importa si está hablando o chateando con un humano o una máquina? Y si lo hacen, ¿les importará unos años después de que todos estén más acostumbrados a la interacción basada en la IA?

En las encuestas, las personas dirán que prefieren hablar con un humano que con un bot. Pero los investigadores del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano de Berlín descubrieron que las interacciones con los chatbots son más exitosas si el chatbot se hace pasar por un humano. En la investigación, publicada en la revista Nature Machine Intelligence, el objetivo era que los chatbots obtuvieran la cooperación de los humanos. Cuando la gente pensaba que los robots eran humanos, tenían más probabilidades de cooperar.

La conclusión de los investigadores: "Las mesas de ayuda administradas por bots, por ejemplo, pueden proporcionar asistencia de manera más rápida y eficiente si se les permite hacerse pasar por humanos".

En otras palabras, debido a que es menos probable que las personas cooperen con los chatbots, la mejor manera de avanzar es que los chatbots se hagan pasar por humanos y no se identifiquen como AI.

El fundador de Android, Andy Rubin, está de acuerdo. Como ahora CEO del fabricante de teléfonos Essential Products, ha estado trabajando en un teléfono inteligente alto y delgado llamado Gem. Los críticos criticaron el diseño del teléfono, lo que sugiere que la pantalla es demasiado delgada. Pero según los informes, todo el propósito del teléfono es usar IA para que el teléfono haga cosas en nombre del usuario, incluida la comunicación. El usuario interactuaría con el teléfono principalmente a través de comandos de voz, según los comentarios que Rubin hizo a la prensa el año pasado. Y un chatbot de IA respondería automáticamente a correos electrónicos y mensajes de texto en nombre del usuario. Le dijo a Bloomberg que el agente sería una "versión virtual de usted".

Es el tema de las novelas de Philip K Dick o William Gibson: "agente virtual" publicado como un "tú virtual" en el "ciberespacio".

Los legisladores tendrán algo que decir al respecto. El 1 de julio entró en vigencia una ley de California que exige que la IA se identifique como no humana en cualquier interacción. Pero es probable que esta ley se aplique solo a las empresas con un chatbot "orientado al público", y no a usuarios individuales de tecnologías como la "versión virtual de usted" de Rubin.

El problema con el pánico moral en torno a la divulgación de IA

Cuando se les pregunta si quieren que la IA se identifique como no humana durante las interacciones, la mayoría de las personas responderán que sí, lo quieren. A la gente no le gusta la idea de ser "engañada" para interactuar con una máquina.

El problema es que la comunicación basada en máquina no es binaria. Las máquinas nos ayudan a comunicarnos en todo tipo de formas, desde correctores gramaticales hasta respuestas automáticas fuera de la oficina, hasta Autocorrección y Smart Compose de Google.

La gente ya recibe mensajes de chatbots que no revelan su no humanidad por cosas simples como el estado de su pizza de entrega. Interactuamos todos los días con sistemas de respuesta de voz interactiva (IVR) cada vez más sofisticados cuando llamamos al banco o a la aerolínea para solicitar servicio al cliente. Y cuando llegamos a un humano, a menudo leen un script generado por IA.

Creo que el pánico moral (o, más exactamente, el desagrado vago) en torno a la IA que se hace pasar por humanos es temporal.

Dentro de unos años, será como revelaciones de cookies en sitios web. Europa, California y algunas otras entidades políticas exigirán divulgaciones de IA. Pero la mayoría de los usuarios encontrarán esas revelaciones como una molesta pérdida de tiempo.

La tecnología está aquí y pronto crecerá en todas partes. Podríamos estar molestos al saber que la persona con la que hemos estado gritando no es humana. Pero también podríamos estar encantados de permitir que los chatbots interactúen en nuestro nombre.

De cualquier manera, "Hijo de Antón" se acerca.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *