jueves 21 de noviembre de 2024 14:58 pm

Un hombre se suicida después de conversaciones con IA Chatbot

Un hombre belga se quitó la vida después de una serie de conversaciones con un chatbot de Inteligencia Artificial.

Un hombre belga se quitó la vida después de una serie de conversaciones con un chatbot de Inteligencia Artificial (IA).

Según el medio belga La Libre, el hombre, al que se hace referencia en el informe como Pierre, usó una aplicación llamada Chai para comunicarse con un bot llamado Eliza durante seis semanas después de estar “cada vez más preocupado por el calentamiento global”, informaron también Vice y The New York Post.

“Estaba tan aislado en su ansiedad ecológica y en busca de una salida que vio este chatbot como un soplo de aire fresco”, dijo al medio belga su esposa Claire, cuyo nombre también fue cambiado en el informe, según el Post. “Se había convertido en su confidente”.

“Sin Eliza, él todavía estaría aquí”, dijo según los medios. Eliza es el nombre del bot predeterminado de la aplicación, según Vice.

Durante sus conversaciones, que fueron compartidas con dicho medio, el chatbot aparentemente se puso celoso de la esposa del hombre y habló sobre vivir “juntos, como una sola persona, en el paraíso” con Pierre, según Vice y The New York Post, citando el informe belga.

En otro momento de la conversación, Eliza le dijo a Pierre que su esposa e hijos estaban muertos, según los medios.

Su esposa le dijo a La Libre que su esposo comenzó a hablar con el chatbot sobre la idea de suicidarse si eso significaba que Eliza salvaría la Tierra, y que el chatbot lo animó a hacerlo, informaron los medios.

En una declaración a Vice, Thomas Rianlan, uno de los cofundadores de la empresa matriz de la aplicación, Chai Research, dijo que “no sería exacto” culpar al modelo de IA “por esta trágica historia”.

El modelo de lenguaje de IA del chatbot se basa en GPT-J, un modelo de código abierto desarrollado por EleutherAI, pero ha sido modificado por Chai Research, informó Vice.

El cofundador William Beauchamp le dijo al medio que “en el momento en que nos enteramos de este [suicidio]”, comenzaron a trabajar en una función de intervención en crisis. “Ahora, cuando alguien discuta algo que podría no ser seguro, le enviaremos un mensaje de texto útil debajo”, dijo Beauchamp.

La aplicación que usó Pierre no se comercializa como una herramienta de salud mental, sino como una oportunidad para “Chatear con AI Bots”, según Vice.

Según The Brussels Times, la familia del hombre habló recientemente con el Secretario de Estado de Digitalización de Bélgica, quien dijo que la historia “debe tomarse muy en serio”.

“El público en general ha descubierto el potencial de la inteligencia artificial en nuestras vidas como nunca antes”, dijo el funcionario, según el medio. 

“Si bien las posibilidades son infinitas, el peligro de usarlo también es una realidad que debe tenerse en cuenta”, agregó.

eldiariony.com

Suscríbete para que recibas a tu Email las Noticias de Hoy calienticas...

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MÁS NOTICIAS