Yakarta, CNN Indonesia —
Empresa Character Technologies, matriz de la plataforma chatbot Carácter.AIya no permitirá que los usuarios adolescentes mantengan conversaciones bidireccionales con su IA a partir del 25 de noviembre. Consulte los motivos.
Esta medida se produce después de una serie de demandas que acusaron a la aplicación de chatbot de desempeñar un papel en los suicidios y los problemas de salud mental entre los adolescentes.
ANUNCIO
DESPLÁCETE PARA CONTINUAR CON EL CONTENIDO
La empresa implementará estos cambios el 25 de noviembre. Durante el período de transición, los usuarios adolescentes solo tendrán dos horas para interactuar con el chatbot.
En cambio, los usuarios menores de 18 años tendrán la garantía de crear historias, vídeos y transmisiones en vivo con Character.AI.
“No tomamos a la ligera la decisión de eliminar la función de chat gratuito en Character, pero creemos que es el paso correcto, dadas las muchas preguntas planteadas sobre cómo los adolescentes interactúan, y deberían interactuar, con esta nueva tecnología”, dijo la compañía en un comunicado, citado. cnnMiércoles (29/10).
La decisión se produce en medio de una creciente controversia sobre los límites de las interacciones de niños y adolescentes con la IA, lo que generó llamados de activistas y formuladores de políticas de seguridad digital para reforzar los controles parentales en las plataformas.
El año pasado, una madre de Florida, Estados Unidos, demandó a la empresa y acusó a la aplicación de ser responsable del suicidio de su hijo de 14 años.
Otras tres familias también presentaron una demanda en septiembre. Alegan que la aplicación anima a los niños a intentar suicidarse o experimentar efectos adversos después de interactuar con el chatbot.
En un comunicado anterior emitido por la empresa en respuesta a la demanda de septiembre, la empresa afirmó que “se preocupa profundamente por la seguridad de sus usuarios” y ha invertido “recursos sustanciales en programas de seguridad”.
La compañía también afirmó que ha lanzado y continúa desarrollando características de seguridad, incluidos medios para prevenir comportamientos de autolesión y características especiales para proteger a los niños.
Character Technologies reveló que este cambio se tomó luego de una respuesta del regulador, así como de la aparición de una serie de noticias recientes sobre este tema.
Además, la compañía está lanzando una nueva herramienta de verificación de edad y planea establecer un laboratorio de seguridad de IA, que estará dirigido por una organización independiente sin fines de lucro y se centrará en la investigación de seguridad relacionada con el entretenimiento basado en IA.
La política de seguridad anterior de Character.AI incluía un aviso que dirigía a los usuarios a la Línea Nacional de Prevención del Suicidio, cuando mencionaban el tema del suicidio o el comportamiento de autolesión.
Character Technologies se convierte en la última empresa de inteligencia artificial en implementar nuevas protecciones para los adolescentes. Este paso se produce en medio de preocupaciones sobre el impacto de la IA en la salud mental, después de que varios informes revelaran que los usuarios se sentían deprimidos o aislados después de largas conversaciones con ChatGPT.
Grandes empresas como OpenAI y Meta están intentando mejorar la seguridad y proteger a los adolescentes de los impactos negativos de la IA y el uso de las redes sociales.
Al agregar funciones como controles parentales y restricciones sobre el tipo de contenido al que pueden acceder los adolescentes, están trabajando para garantizar que la tecnología de inteligencia artificial se pueda utilizar de manera segura, responsable y apropiada para la edad.
|
Conozca qué es DeepFake, sus peligros y cómo identificarlo (Foto: CNN Indonesia/Agder Maulana)
|
(wpj/dmi)
(Gambas: vídeo de CNN)