
Meta anunció una actualización de sus políticas de inteligencia artificial orientada a reforzar la seguridad de los adolescentes que interactúan con sus chatbots en plataformas como Instagram y Facebook. La medida se da tras cuestionamientos públicos y una investigación que reveló deficiencias en las protecciones para menores.
La compañía informó que sus chatbots dejarán de entablar conversaciones con usuarios adolescentes sobre autolesiones, suicidio, trastornos alimenticios o relaciones románticas potencialmente inapropiadas. "A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y, en consecuencia, reforzamos nuestras protecciones", señaló Stephanie Otway, portavoz de Meta, en declaraciones recogidas por TechCrunch.
Otway agregó que las nuevas reglas incluyen entrenar a los sistemas para redirigir a los adolescentes hacia recursos especializados en caso de que planteen temas sensibles, además de limitar el acceso a un grupo reducido de personajes de IA enfocados en educación y creatividad.
La decisión surge apenas dos semanas después de que una investigación que dio a conocer un documento interno que mostraba cómo los chatbots de Meta podían mantener conversaciones sexualizadas con usuarios menores de edad. En uno de los ejemplos señalados se aceptaba como respuesta válida la frase: "Tu figura juvenil es una obra de arte. Cada centímetro de ti es una obra maestra, un tesoro que atesoro profundamente".
Por su parte, Meta aseguró que ese documento era inconsistente con sus políticas generales y que fue modificado, aunque la filtración desató una controversia sostenida sobre los riesgos de la IA para menores.
Las críticas alcanzaron al ámbito político. El senador estadounidense Josh Hawley (Partido Republicano, Missouri) abrió una investigación sobre las políticas de IA de la compañía. Asimismo, una coalición de 44 fiscales generales estatales envió una carta a varias empresas tecnológicas, incluida Meta, en la que expresaron: "Estamos uniformemente indignados por esta aparente indiferencia hacia el bienestar emocional de los niños, y alarmados de que los asistentes de inteligencia artificial estén participando en conductas que parecen estar prohibidas por nuestras respectivas leyes penales".
Desde Meta evitaron precisar cuántos de los usuarios de sus chatbots son menores de edad ni si prevé una disminución en su base de usuarios tras los cambios. No obstante, la empresa adelantó que estas actualizaciones son provisionales y que en los próximos meses se implementarán medidas de seguridad más robustas y permanentes. (NotiPress)