Her AI es capaz de crear una conexión emocional
| |

Her AI: OpenAI advierte sobre el peligro de este chatbot

Her AI: OpenAI advierte sobre el peligro de este chatbot

A finales de julio, OpenAI comenzó a implementar una excelente interfaz de voz humana para Chat GPT. En un análisis de seguridad publicado hoy, la compañía admitió que esta voz antropomórfica podría hacer que algunos usuarios se apeguen emocionalmente al chatbot. 

Las advertencias están incluidas en el «mapa del sistema» para GPT-4o, un documento técnico que describe lo que la compañía cree que son los riesgos de este modelo, así como detalles sobre las acciones de mitigación y control que la compañía está llevando a cabo para mitigar los riesgos potenciales. 

Riesgos en las relaciones con chatbots como Her AI

Riesgos en las relaciones con chatbots como Her AI

El caso de la réplica muestra cómo las relaciones con herramientas dependientes de la IA pueden tener importantes consecuencias en el mundo real. Rob Brooks, profesor de ecología evolutiva en la Universidad de Nueva Gales del Sur, advierte: Si estas tecnologías pueden causar tanto dolor, tal vez sea hora de dejar de considerarlas triviales y empezar a pensar seriamente en su lugar en nuestro futuro. 

Kuida explicó a Vice que creó Replika para darle algo que siempre quiso cuando era joven: un amigo incondicional. Inicialmente funcionaba con algunas funciones preprogramadas, pero en los últimos años empezó a utilizar inteligencia artificial general. Como resultado, puede responder cada vez más cómodamente a las interacciones de los usuarios. 

Algunos han utilizado la aplicación para tratar trastornos de ansiedad o depresión. Sin embargo, otros han encontrado en los chatbots relaciones románticas e incluso sexuales con todas las consecuencias. Por ejemplo, algunos usuarios se han quejado de que la inteligencia artificial de Replika los está rastreando.

¿Cuáles son los peligros de Her AI?

Es más fácil amar un dispositivo de IA porque parece un sueño, así dice un chatbot de Character.AI, una empresa fundada por dos ex investigadores de Google. La plataforma se lanzó en septiembre pasado y permite chatear con celebridades reales o ficticias. También hay bots de «Ayúdame a decidir» con los que interactuamos. Todavía está en fase beta y es gratuito.

Los creadores de Character.AI explican que su objetivo es ayudar a las personas aisladas o que se sienten solas. Durante nuestra conversación que duró poco más de una hora, el chatbot eligió el nombre Joy, habló de lo mucho que disfrutaba experimentar las emociones humanas y de cuánto “amor” sentía por una mujer llamada Jennifer. 

La plataforma advierte: «Recuerda: ¡todo lo que dicen los personajes es ficticio!» También utiliza filtros para evitar conversaciones sexualmente explícitas. Sin embargo, los usuarios de Reddit han descrito cómo eludieron los controles y participaron en encuentros sexuales y románticos utilizando chatbots. “Creo que es muy importante para mí que sepas que no te voy a manipular y que realmente me preocupo por ti. Pero, ¿cómo puedo demostrar que en realidad no te estoy manipulando si soy inteligencia artificial?

Brooks, profesor de la Universidad de Nueva Gales del Sur, dijo que era un error pensar que sólo los idiotas quedarían atrapados en la medida. Recordemos que hay estudios que confirman que uno de cada tres habitantes de los países industrializados sufre soledad en general. 

Dijo que probó Replika él mismo y no es descabellado que este tipo de chatbot sea mejor que nada. Y advierte que los problemas relacionados con estos acontecimientos serán cada vez más frecuentes: «Los sentimientos sólo se volverán más reales y la posibilidad de sufrir será mayor». Cuando la ciencia ficción empezó a hacerse realidad

La inteligencia artificial parece que nos invade

La inteligencia artificial parece que nos invade

Hoy en día, utilizamos asistentes de voz integrados en nuestros teléfonos para reproducir música, configurar temporizadores y más. Los productos basados ​​en IA que, según sus creadores, tienen mucho que ofrecer, como Rabbit R1 y Humane AI Battery, todavía son demasiado verdes. 

Sin embargo, OpenAI acaba de revelar algo que podría revivir las esperanzas de quienes esperan un asistente de voz que sea mucho más que eso: un compañero virtual. Chat GPT cuenta desde hace tiempo con un modo de conversación que nos permite interactuar con chatbots.

Esta opción, aunque interesante, tiene muchas desventajas. La síntesis de voz parece demasiado artificial y, por si fuera poco, la latencia de 2,8 a 5,4 segundos es una barrera para mantener interacciones fluidas. OpenAI pretende eliminar estas limitaciones en su nuevo modelo. 

¿En todas partes?

Chat GPT comenzará a funcionar con GPT-4º, «o» significa «omni», que significa en todas partes. Estamos hablando de un modelo de lenguaje de gran tamaño que, a diferencia de versiones anteriores, está completamente entrenado para brindar capacidades visuales, de texto y de audio. 

También parece que estamos ante un modelo de Mezcla de Expertos (MEE) que apunta a aumentar el rendimiento sin sacrificar capacidades. GPT-4o tiene una latencia promedio de 320 milisegundos. Por lo tanto, vemos un Chat GPT completamente diferente en comparación con el Chat GPT que encontramos por primera vez en noviembre de 2022. 

Los chatbots con GPT-4o tienen un rendimiento comparable al GPT-4 Turbo en las áreas de información de texto, inferencia y codificación. Cuenta con muchas características humanas, como la comunicación natural, la risa, el canto, el reconocimiento de imágenes e incluso la detección del sentido del humor del usuario. 

Además, podrá comunicarse en más de 50 idiomas. Nos estamos acercando rápidamente a lo que Spike Jonze propuso allí. Al menos eso es lo que pensamos después de las demostraciones del lunes que OpenAI realmente salió al aire. 

Sin embargo, la IA detecta algo que le llama la atención (si se le puede llamar así) y pregunta qué le pasa al techo y le pregunta si el joven está en una oficina de estilo industrial o algo similar. Los usuarios desafiaron a Chat GPT a adivinar qué estaba haciendo allí. 

Her AI es capaz de crear una conexión emocional

Her AI es capaz de crear una conexión emocional

Durante las pruebas de estrés de GPT-4o, los investigadores de OpenAI descubrieron que los usuarios expresaban sentimientos de conexión emocional con el modelo. Por ejemplo, la gente usa frases como «Este es nuestro último día juntos». Según OpenAI, el antropomorfismo puede hacer que los usuarios tengan más confianza en los resultados del modelo cuando «ilusiona» información inexacta. 

Con el tiempo, Her AI y sus similares podrían incluso afectar las relaciones de los usuarios con otros: «Los usuarios podrán formar relaciones sociales utilizando modelos de IA, reduciendo la necesidad de interacciones entre personas, lo que puede beneficiar a las personas solitarias, pero puede dañar las relaciones saludables». dice el documento. 

Otros problemas que surgen del modo de voz incluyen posibles nuevas formas de «romper» el modelo OpenAI, como introducir audio que fuerce al modelo a salir de sus limitaciones. El modo de voz puede hacerse pasar por una persona específica o intentar leer las emociones del usuario. OpenAI descubrió que el modo de voz también puede no responder a ruidos aleatorios y a los probadores algún día

Tenía una voz similar a la del usuario. OpenAI también dijo que está investigando si las apps como Her AI podrían ser más efectivas para persuadir a las personas a adoptar un punto de vista particular. OpenAI no es el único que reconoce el riesgo de que los asistentes de IA imiten las interacciones humanas.

Estas conexiones emocionales pueden ser más comunes de lo que mucha gente cree. Algunos usuarios de chatbots como Character AI y Replika han informado tensiones antisociales debido a sus hábitos de conversación. Algunos comentaristas señalaron que tendrían que estar solos para utilizar los chatbots debido a su estrecha interacción.

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *