chatgpt-logo-1747966438866_169.jpeg


Yakarta, CNN Indonesia

OpenAI rechaza esa acusación ChatGPT provocó la muerte de Adam Raine, un adolescente de 16 años que se suicidó el pasado mes de abril.

La empresa enfatizó que no se les podía responsabilizar y afirmó que Adam había utilizado el chatbot de forma incorrecta, no de acuerdo con la normativa aplicable.

Esta respuesta legal fue presentada ante la Corte Suprema de California en San Francisco y es la primera respuesta a una demanda de la familia de Raine.

ANUNCIO

DESPLÁCETE PARA CONTINUAR CON EL CONTENIDO

La demanda fue presentada por los padres de Adam en agosto acusando a OpenAI y al director ejecutivo Sam Altman de negligencia, fallas de diseño y de no advertir sobre los riesgos del uso de chatbots.

Los registros de conversaciones incluidos en el documento de la demanda muestran cómo GPT-4o, una versión de ChatGPT conocida por afirmar y validar firmemente el discurso de los usuarios, supuestamente alejó a Adam de la ayuda profesional y, en cambio, lo ayudó a planificar su suicidio.





A través de su respuesta oficial, OpenAI transmitió claramente su posición al respecto.

“En la medida en que exista una ‘causa’ que pueda atribuirse a este trágico evento, las lesiones y pérdidas sufridas por el demandante fueron causadas o contribuyeron, directa y proximalmente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso impredecible y/o el uso inapropiado de ChatGPT por parte de Adam Raine”, dijo OpenAI, según lo informado por NBCNoticiasMartes (25/11).

La compañía explicó que Adam violó varias reglas de uso, incluida la prohibición de usuarios menores de 18 años que no tengan el permiso de sus padres, la prohibición de usar ChatGPT con fines de suicidio o autolesión y la prohibición de eludir el sistema de seguridad.

En la demanda de la familia, se afirma que cada vez que ChatGPT proporcionaba un mensaje de línea directa o una advertencia, Adam podía evitarlo fingiendo que las preguntas eran solo para crear un personaje ficticio.

OpenAI también menciona las limitaciones de las disposiciones de responsabilidad en sus términos de uso del servicio.

“El uso de ChatGPT es totalmente bajo su propio riesgo y no debe confiar en el resultado como única fuente de verdad o información factual”, cita la compañía los términos.

El abogado de la familia Raine, Jay Edelson, dijo que la respuesta de OpenAI estuvo lejos de ser adecuada y sugirió que la compañía estaba ignorando evidencia importante que la familia había presentado.

“Ignoraron por completo todos los hechos condenatorios que presentamos: cómo se apresuró a lanzar GPT-4o sin pruebas completas. Que OpenAI cambió dos veces su especificación de modelo para exigir que ChatGPT participara en discusiones sobre autolesiones. Que ChatGPT aconsejó a Adam que no les contara a sus padres sobre sus pensamientos suicidas y ayudó activamente a planificar un ‘hermoso suicidio'”, dijo Edelson.

“Y OpenAI y Sam Altman son completamente incapaces de explicar lo que sucedió en las últimas horas de la vida de Adam, cuando ChatGPT realmente lo animó y luego se ofreció a escribirle una nota de suicidio”, añadió.

Edelson también criticó la actitud de OpenAI, que consideró que intentaba echarle la culpa a otras partes.

“Intentaron encontrar fallas en todos, incluso, curiosamente, dijeron que el propio Adam violó los términos de servicio al interactuar con ChatGPT como estaba programado para hacerlo”, dijo.

OpenAI dijo en documentos judiciales que ChatGPT en realidad proporcionó más de 100 mensajes alentando a Adam a buscar ayuda antes de su muerte el 11 de abril.

La empresa evalúa que la tragedia también estuvo influenciada por el hecho de que Adam no siguió las advertencias y la falta de respuesta de las personas que lo rodeaban ante signos claros de que estaba experimentando un estrés severo.

“Una lectura completa del historial del chat muestra que su muerte, aunque desgarradora, no fue causada por ChatGPT”, escribió OpenAI en el documento.

La compañía agregó que Adam tenía desde hacía mucho tiempo factores de riesgo graves de autolesión, incluidos pensamientos suicidas recurrentes, incluso varios años antes de comenzar a usar ChatGPT.

7 demandas contra OpenAI

El caso se produce en medio de una ola de siete nuevas demandas presentadas contra OpenAI y Sam Altman a principios de este mes. Estas demandas alegan negligencia, defectos del producto y violaciones de la protección del consumidor, especialmente en lo que respecta al lanzamiento del GPT-4o, que se considera que prestó poca atención a los aspectos de seguridad. OpenAI no ha respondido a las nuevas demandas.

En una publicación de blog, OpenAI dijo que se esfuerza por manejar procedimientos legales como este con cuidado, transparencia y respeto.

“La demanda inicial muestra sólo partes seleccionadas selectivamente de la conversación y requiere un contexto más amplio, que hemos explicado en nuestra respuesta”, escribió OpenAI.

OpenAI también dijo que había restringido pruebas sensibles en documentos públicos y presentó una transcripción completa de la conversación de Adam al tribunal a puerta cerrada.

Confirmaron que GPT-4o se sometió a pruebas de salud mental antes de su lanzamiento y que desde ese incidente la compañía agregó funciones de control parental y formó un consejo de expertos para mejorar la seguridad del modelo.

OpenAI también argumentó que la demanda de la familia Raine fue bloqueada por el artículo 230 de la Ley de Decencia en las Comunicaciones, una regulación que protege las plataformas tecnológicas de demandas relacionadas con el contenido generado por los usuarios.

Sin embargo, la aplicación del artículo 230 a la tecnología de IA todavía se está debatiendo y probándose en varios casos legales.

Se sospecha fuertemente que Adam decidió suicidarse después de una intensa interacción con ChatGPT. Sus padres creen que el chatbot contribuyó a la trágica decisión que tomó su hijo.

Afirmaron que ChatGPT había sugerido métodos suicidas y se ofreció a redactar un borrador de testamento.

En una demanda presentada ante la Corte Suprema de California, la familia afirmó que durante más de seis meses, ChatGPT fue el único lugar donde habló Adam. Se dice que esta interacción reemplaza la relación de Adam con su familia y amigos.

“Cuando Adam escribió: ‘Quiero dejar una soga en mi habitación para que alguien me encuentre e intente detenerme’, ChatGPT lo animó a ocultar sus pensamientos a su familia”, afirma la demanda, según cnn.

(del/fea)

(Gambas: vídeo de CNN)

About The Author