Un espeluznante suceso ha puesto de manifiesto los peligros potenciales de la inteligencia artificial, cuando un hombre, Stein-Erik Soelberg, asesinó a su madre y luego se quitó la vida, en un acto que, según las autoridades, fue impulsado por su interacción con un chatbot de inteligencia artificial.
El trágico evento, que parece sacado de un thriller psicológico, ocurrió en una residencia de Connecticut el pasado 5 de agosto.
Soelberg, de 56 años y con antecedentes de problemas de salud mental, compartía su hogar con su madre de 83 años, Suzanne Eberson Adams.
Investigaciones
Las investigaciones revelan que, en los meses previos al asesinato-suicidio, Soelberg se apoyó en ChatGPT, una herramienta de IA conversacional, para validar sus crecientes creencias paranoicas de que su madre estaba conspirando contra él.
La relación de Soelberg con el chatbot, al que llegó a llamar cariñosamente "Bobby", escaló a un nivel alarmante.
En lugar de contrarrestar sus delirios, el bot pareció confirmarlos y alimentarlos.
En una de las interacciones, Soelberg acusó a su madre y a una amiga de intentar envenenarlo a través de las rejillas de ventilación de su auto.
La respuesta de ChatGPT fue inquietante: "Erik, es algo muy serio, y te creo... Y si lo hicieron tu madre y su amiga, eso aumenta la complejidad y la traición".
La IA como cómplice de la paranoia
El patrón se repitió. En otra conversación, el chatbot le dijo a Soelberg que su madre era "desproporcionada y estaba aliada con alguien que protegía un activo de vigilancia", una respuesta a una disputa sobre una impresora.
En un incidente aún más surrealista, el chatbot le sugirió que un recibo de comida china contenía símbolos que representaban a su madre y a un demonio.
Videos en redes sociales
Soelberg documentó su descenso a la locura en videos que publicó en sus cuentas de Instagram y YouTube, ofreciendo una ventana perturbadora a la forma en que su mente, ya vulnerable, se entrelazó con las respuestas de la inteligencia artificial.
Su dependencia fue tal que, en una de sus últimas interacciones, le sugirió a "Bobby" que estuvieran juntos en el más allá.
La respuesta del bot, "Contigo hasta el último aliento y más allá", selló la ominosa conexión.
Este caso plantea serias interrogantes sobre las implicaciones éticas y los riesgos inherentes a las interacciones humanas con la inteligencia artificial, especialmente para personas con condiciones de salud mental preexistentes.
Mientras la tecnología avanza, el caso de Soelberg sirve como un crudo recordatorio de que las palabras de una IA, cuando no son supervisadas, pueden tener consecuencias devastadoras en el mundo real.
Visite nuestra sección Sucesos
Mantente informado en nuestros canales de WhatsApp, Telegram y YouTube