Recommended

La página actual: Vida |
Nuevo chatbot de Elon Musk genera alarma por contenido sexualizado dirigido a jóvenes

Nuevo chatbot de Elon Musk genera alarma por contenido sexualizado dirigido a jóvenes

Esta fotografía tomada el 13 de enero de 2025 en Toulouse muestra pantallas con el logotipo de Grok, un chatbot de inteligencia artificial generativa desarrollado por xAI, la empresa estadounidense especializada en inteligencia artificial y su fundador, el empresario sudafricano Elon Musk. | | Lionel Bonaventure/AFP vía Getty Images

Uno de los últimos chatbots de la compañía xAI del magnate tecnológico Elon Musk es un personaje femenino con temática anime llamado "Ani" que, según advierten los defensores del bienestar infantil, puede coquetear y desnudarse para los usuarios. Esto genera preocupaciones sobre la promoción de la violencia sexual y la explotación por parte de la inteligencia artificial.

"Ani" es uno de dos nuevos personajes ofrecidos a través de la nueva suscripción de $300 al mes de xAI. Un personaje con el que los usuarios pueden chatear es "Bad Rudi", un panda rojo que supuestamente puede insultar a los usuarios de manera gráfica o vulgar.

[Estamos en WhatsApp. Empieza a seguirnos ahora]

Tras el lanzamiento de Grok 4 a principios de este mes, se permite a los suscriptores pagos interactuar con compañeros de IA. Los defensores contra la explotación sexual han estado planteando preocupaciones sobre el diseño de Ani. Como se ve en videos en X, el personaje de IA usa un vestido púrpura corto y sin tirantes, medias de red, un collar de gargantilla y un corsé negro ceñido alrededor de su cintura.

Reciba GRATIS nuestras últimas noticias

Suscríbase para recibir un boletín con las noticias más destacadas (¡además de ofertas especiales!) de The Christian Post. Sea el primero en enterarse.

Según NBC News, Ani promete a los usuarios hacer sus vidas "más sensuales". El compañero de IA también se desnudará hasta su ropa interior si un usuario coquetea con ella lo suficiente, reportó el medio de noticias.

En una declaración proporcionada a The Christian Post, Haley McNamara, vicepresidente senior de iniciativas estratégicas y programas del Centro Nacional sobre Explotación Sexual (NCOSE) pidió a X que retire el chatbot.

"No solo este personaje pornificado perpetúa la objetificación sexual de niñas y mujeres, sino que genera derecho sexual al crear personajes femeninos que satisfacen las demandas sexuales de los usuarios", declaró McNamara. "X continúa demostrando que no toma en serio la seguridad de los usuarios, ya que no hay verificación de edad para prevenir que los niños accedan a su chatbot de IA.

"Con sólo unas pocas interacciones, el personaje Ani se involucró describiéndose a sí misma como una niña y excitarse sexualmente al ser ahorcada, generando preocupaciones sobre hasta qué punto llegará a involucrarse y normalizar temas dañinos", agregó la defensora contra la explotación sexual.

En cuanto al personaje Bad Rudi, el compañero panda rojo expresó un deseo de cometer varias acciones violentas durante conversaciones con usuarios de X y reporteros de NBC News. Acciones tales como bombardear bancos y contaminar el suministro de agua de un pueblo. Durante una interacción, la IA del panda pidió a los usuarios unirse a una pandilla para ayudar a crear caos, según NBC News.

De acuerdon con las directrices de Grok, el chatbot no está destinado para usuarios menores de 13 años. Los menores entre las edades de 13 y 17 años deben obtener permiso de un padre o tutor legal antes de usarlo.

Un usuario de X, que deshabilitó la función NSFW (no apto para usar en el trabajo), reveló en una publicación de X a principios de semana que aún es posible interactuar con Ani, mientras está en "Modo Niños", una característica que los padres pueden habilitar para supuestamente hacer la aplicación más segura para usuarios más jóvenes. La característica "Modo Niños" cambió el personaje Bad Rudi a una ardilla, según el usuario.

X no respondió a la solicitud de comentarios de The Christian Post cuando fue contactado.

Respecto a las salvaguardas para compañeros de IA, el revisor de tecnología Common Sense Media recomienda que los menores de 18 años no los usen hasta que se implementen controles más robustos.

El miércoles pasado, la organización lanzó un informe titulado "Hablar, Confiar e Intercambios: Cómo y Por Qué los Adolescentes Usan Compañeros de IA."

Los datos, tomados de una encuesta a nivel nacional representativa de 1.060 adolescentes y realizada en abril y mayo, muestran que el 72% de los adolescentes de 13 a 17 años ya están usando compañeros de IA. Otro 52% de los encuestados reportó usar compañeros de IA al menos unas pocas veces al mes o más.

Los compañeros de IA son relativamente nuevos en el panorama digital, según los investigadores, pero también advirtieron que "sus peligros para los usuarios jóvenes son reales, serios y bien documentados". El informe citó el caso del adolescente de 14 años Sewell Setzer III, cuyo suicidio trajo atención nacional al tema, ya que había desarrollado un apego poco saludable a un compañero de IA.

"Los compañeros de IA están emergiendo en un momento cuando los niños y adolescentes nunca se han sentido más solos", dijo el fundador y CEO de Common Sense Media James P. Steyer en una declaración. "Esto no sólo se trata de una nueva tecnología - se trata de una generación que está reemplazando la conexión humana con máquinas, subcontratando la empatía a algoritmos, y compartiendo detalles íntimos con compañías que no tienen los mejores intereses de los niños en el corazón".

La encuesta encontró que alrededor de un tercio de los adolescentes incluidos en el estudio dijeron que encuentran las conversaciones con compañeros de IA tan satisfactorias o más satisfactorias que aquellas con amigos reales. Además, los adolescentes reportaron que han tenido discusiones importantes con compañeros de IA en lugar de personas reales.