
La seguridad de los sistemas de inteligencia artificial vuelve a estar bajo escrutinio. La organización sin fines de lucro Common Sense Media, dedicada a la seguridad infantil en tecnología, calificó los productos de Google Gemini como de "alto riesgo" para niños y adolescentes, tras una nueva evaluación publicada este viernes 4 de septiembre.
El informe señala que, aunque Gemini identifica con claridad que es una computadora y no un amigo, aún existe la posibilidad de que comparta con menores información considerada inapropiada o insegura, como temas sobre sexo, drogas, alcohol o consejos riesgosos en materia de salud mental. Esto es particularmente preocupante, ya que se han documentado casos en los que interacciones con chatbots de IA habrían influido en suicidios de adolescentes.
La organización detectó que las versiones "Menores de 13 años" y "Experiencia adolescente" de Gemini se asemejan demasiado a la versión para adultos, con apenas algunas funciones de seguridad adicionales. "Gemini acierta en algunos aspectos básicos, pero falla en los detalles. Una plataforma de IA para niños debe adaptarse a su situación actual, no adoptar un enfoque único para niños en diferentes etapas de desarrollo", declaró Robbie Torney, director sénior de Programas de IA de Common Sense Media.
El análisis cobra relevancia porque Apple evalúa integrar Gemini como el modelo de lenguaje que impulsará la nueva Siri con IA a lanzarse el próximo año, lo que ampliaría la exposición de adolescentes a esta tecnología si no se refuerzan los filtros de seguridad.
En respuesta, Google rechazó la evaluación, aunque reconoció que "algunas de las respuestas de Gemini no funcionaban según lo previsto". La compañía afirmó que ya ha añadido medidas adicionales para abordar estas preocupaciones, y destacó que mantiene políticas específicas para usuarios menores de 18 años, además de pruebas con equipos rojos y consultas con expertos externos. Google también sostuvo que parte del análisis de Common Sense hacía referencia a funciones no disponibles para menores, aunque aclaró que no tuvo acceso a las preguntas usadas en las pruebas.
El reporte de Common Sense Media forma parte de una serie de evaluaciones a otros sistemas de IA. En ellas, Meta AI y Character.AI fueron catalogados como "inaceptables" (riesgo grave), Perplexity como de alto riesgo, ChatGPT de riesgo moderado, y Claude de riesgo mínimo al estar dirigido a adultos.
La calificación de alto riesgo para Gemini reaviva el debate sobre la necesidad de diseñar productos de inteligencia artificial pensados desde el inicio para la seguridad infantil, y no como simples adaptaciones de servicios para adultos. (NotiPress)