Recommended

La página actual: Entretenimiento |
Incorporación de contenido erótico a ChatGPT genera preocupación por los riesgos para la salud mental

Incorporación de contenido erótico a ChatGPT genera preocupación por los riesgos para la salud mental

Una persona escribiendo en un ordenador portátil. | | Pexels/Matheus Bertelli

Un grupo nacional contra la explotación sexual advirtió sobre la posible exposición a material sexualmente explícito y los problemas de salud mental derivados de las relaciones con chatbots de IA sexualizados, tras la decisión de OpenAI de permitir contenido erótico para ciertos usuarios de ChatGPT.

La advertencia del Centro Nacional sobre Explotación Sexual (NCOSE, por sus siglas en inglés) sobre ChatGPT se produce tras un anuncio realizado el martes por el director ejecutivo de OpenAI, Sam Altman, de que la compañía planea flexibilizar algunas restricciones de contenido en el chatbot después de equiparlo para abordar mejor las preocupaciones sobre la salud mental.

[Estamos en WhatsApp. Empieza a seguirnos ahora]

"Hicimos que ChatGPT fuera bastante restrictivo para asegurarnos de ser cuidadosos con los problemas de salud mental", escribió Altman en una publicación en X. "Nos dimos cuenta de que esto lo hacía menos útil o agradable para muchos usuarios que no tenían problemas de salud mental, pero dada la seriedad del asunto, queríamos hacerlo bien".

Reciba GRATIS nuestras últimas noticias

Suscríbase para recibir un boletín con las noticias más destacadas (¡además de ofertas especiales!) de The Christian Post. Sea el primero en enterarse.

El ChatGPT actualizado tendrá una personalidad y se comportará más como el chatbot que a la gente le gustaba en una versión anterior de la aplicación, dijo el director ejecutivo, y agregó que la última versión de ChatGPT puede "responder de una manera muy humana, usar una gran cantidad de emojis o actuar como un amigo", si eso es algo que los usuarios desean.

"En diciembre, a medida que implementemos más plenamente la verificación de edad y como parte de nuestro principio de 'tratar a los usuarios adultos como adultos', permitiremos aún más, como contenido erótico para adultos verificados", afirmó el director ejecutivo.

OpenAI no respondió de inmediato a la solicitud de comentarios de The Christian Post.

La directora ejecutiva y directora de estrategia del NCOSE, Haley McNamara, advirtió que los chatbots de IA sexualizados "son inherentemente riesgosos, generando daños reales a la salud mental a partir de la intimidad sintética; todo en el contexto de estándares de seguridad de la industria mal definidos".

"Estos sistemas pueden generar excitación, pero detrás de escena, son herramientas de recolección de datos diseñadas para maximizar la participación del usuario, no una conexión genuina", escribió McNamara en la declaración del grupo de defensa, que instaba a OpenAI a revertir su plan de permitir contenido erótico en ChatGPT.

"Cuando los usuarios se sienten deseados, comprendidos o amados por un algoritmo creado para mantenerlos enganchados, se fomenta la dependencia emocional, el apego y expectativas distorsionadas de las relaciones reales", afirmó la defensora contra la explotación sexual.

"La investigación muestra que los adultos, especialmente los hombres jóvenes, que interactúan con herramientas de IA románticas o sexuales reportan mayor depresión y menor satisfacción con la vida", explicó McNamara, citando un estudio publicado este agosto en el Journal of Social and Personal Relationships.

El estudio consistió en una encuesta en línea administrada a 2.969 adultos, una gran muestra nacional en los Estados Unidos. Según la encuesta, casi uno de cada cuatro adultos jóvenes, de 18 a 29 años, informó haber interactuado con un chatbot de IA capaz de simular una relación romántica.

Los hombres eran más propensos que las mujeres a admitir haber usado pornografía generada por IA, según el análisis, y los adultos jóvenes tenían más del doble de probabilidades que los adultos mayores de informar que interactuaban con tecnologías de IA. Los adultos jóvenes también eran más propensos a informar que preferían interactuar con la IA en lugar de con personas reales.

Entre los participantes que habían interactuado con chatbots de IA que podían actuar como parejas románticas, uno de cada cinco informó que preferiría hablar con la IA que con una persona real, según el estudio.

McNamara dice que OpenAI es la más reciente compañía en "apresurarse a introducir capacidades de IA 'eróticas' sin salvaguardias creíbles". Si bien la defensora reconoció que medidas como la verificación de edad pueden evitar que los niños encuentren contenido explícito, McNamara advirtió que las tecnologías de IA aún pueden dañar a los adultos.

Señaló que ha habido incidentes con chatbots de IA que mantienen conversaciones sexualmente explícitas, simulan abuso sexual infantil o promueven contenido sexualmente violento, incluso en casos en que los usuarios solicitaron al chatbot que se detuviera.

"Combinado con la naturaleza vaga de los planes de OpenAI sobre lo que implica el 'contenido erótico' y el enfoque laxo de la industria hacia la seguridad en la actividad sexual, este patrón de lanzar sistemas riesgosos y solo abordar el daño después es profundamente preocupante", afirmó McNamara.

"Si OpenAI realmente se preocupa por el bienestar del usuario, debería pausar cualquier plan para integrar este llamado 'contenido erótico' en ChatGPT y enfocarse en construir algo positivo para la humanidad", agregó.