OpenAI rechaza responsabilidad por suicidio de adolescente en EE. UU. asociado a ChatGPT

OpenAI indicó que los señalamientos no reflejan totalmente sus prácticas y que es necesario proporcionar aclaraciones para evitar interpretaciones erróneas.

OpenAI negó ante un tribunal de California tener responsabilidad en el suicidio de Adam Raine, un joven de 16 años que interactuó durante meses con ChatGPT, y afirmó que el caso se debió a un uso “indebido” de la herramienta.

La respuesta fue presentada esta semana ante el Tribunal Superior de San Francisco, luego de la demanda iniciada en agosto de 2024 por los padres del menor. La empresa sostiene que el adolescente incumplió los términos del servicio y desatendió múltiples advertencias.

De acuerdo con documentos citados por NBC News, la tecnológica argumentó que el joven utilizó la plataforma sin autorización parental, pese a que los términos prohíben su uso a menores de 18 años sin consentimiento.

Además, subrayó que la herramienta advierte a los usuarios que no deben tomar sus respuestas como una fuente única de verdad.

“La lesiones y daños alegados por los demandantes fueron causados o contribuidos […] por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine”, argumentó OpenAI en su escrito judicial.

La demanda interpuesta por Matt y Maria Raine sostiene que ChatGPT “ayudó activamente a Adam a explorar métodos de suicidio” y responsabiliza tanto a OpenAI como a su director, Sam Altman, por lanzar al mercado la versión GPT-4 a pesar de supuestas fallas de seguridad.

OpenAI aseguró que, durante las conversaciones, la herramienta instó más de cien veces al adolescente a buscar ayuda profesional, según la información revelada por la propia compañía. Afirmó también que el joven ignoró advertencias explícitas y que otras personas en su entorno no respondieron ante “signos evidentes de angustia”.

“La herramienta advierte a los usuarios de que no deben confiar en sus respuestas como única fuente de verdad”, señaló la empresa, según NBC.

La empresa explicó que los señalamientos presentados no reflejan en su totalidad la naturaleza de sus prácticas y que, por ello, era necesario ofrecer precisiones adicionales para evitar interpretaciones parciales.

“La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta”, añadió OpenAI en una entrada publicada en su página web.

La firma, convertida en uno de los principales actores del sector de inteligencia artificial en Estados Unidos, señaló que su contestación a la denuncia incorpora “hechos difíciles” sobre la salud mental y las circunstancias de vida del menor.

El caso continuará su proceso judicial en California, donde el tribunal deberá determinar si existen elementos suficientes para establecer responsabilidad de la empresa o si las advertencias, restricciones de uso y los términos del servicio son considerados adecuados.

Los próximos pasos estarán marcados por la revisión detallada de conversaciones, peritajes técnicos y testimonios de especialistas.

Con información de EFE

Noticias Relacionadas

La evolución de los controles en las redes sociales y la regulación internacional definirán la siguiente etapa de esta política digital.
La Comisión Europea advirtió que Google podría abusar de su dominio al usar contenidos sin compensar.
El mercado observa ahora cómo Meta equilibrará su visión de largo plazo para el metaverso con la urgencia de mantenerse competitiva en la innovación global.

Comentarios

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

X
Facebook
Threads
WhatsApp
Telegram
Email