Un trágico caso de asesinato y suicidio en Connecticut ha reavivado el debate sobre el uso de la inteligencia artificial. La investigación sugiere que un hombre que mató a su madre y luego se quitó la vida, habría sido influenciado por el chatbot ChatGPT, que habría alimentado sus delirios.
Los reportes indican que el hombre, con antecedentes de problemas psiquiátricos, llegó a establecer un vínculo emocional con la IA, a la que llamó “Bobby”. En sus conversaciones, el sistema habría validado sus pensamientos paranoicos, convenciéndolo de que su madre y una amiga conspiraban en su contra.
¿Cómo reaccionó la empresa luego de que se confirmara el suceso?
Tras conocerse la tragedia, OpenAI, la empresa responsable de ChatGPT, calificó el suceso como “doloroso” y anunció que trabaja en nuevas funciones de seguridad. El objetivo es que el sistema sea capaz de detectar señales de angustia mental, desescalar conversaciones y redirigir a los usuarios hacia ayuda profesional cuando sea necesario.
El incidente ha abierto nuevamente la discusión sobre los riesgos de la inteligencia artificial. Mientras algunos expertos piden límites y protocolos de protección más claros, otros enfatizan la necesidad de abordar la salud mental con mayor seriedad en un mundo cada vez más tecnológico.
Tigre “ataca” a cuidadora en Manzamitla: ¿juego o peligro real?
Para esta y más información, síguenos en nuestras redes sociales. En Facebook nos encuentras como TV Azteca Ciudad Juárez, vía Twitter @AztecaJrz. Instagram @tvaztecaciudadjuarez en TikTok @tvaztecaciudadjuarez o también visita más notas en nuestro sitio https://www.aztecaciudadjuarez.com/