Usan Gemini para mensajes terroristas
Google reveló que ha recibido más de 258 quejas a nivel mundial sobre el uso de su Inteligencia Artificial (IA) Gemini para crear contenido terrorista dee-pfake. Además, reportó decenas de denuncias por la generación de material de abuso infantil con esta tecnología, según la Comisión Australiana de Seguridad Electrónica.
La empresa entregó esta información en cumplimiento con la legislación australiana que obliga a las compañías tecnológicas a informar sobre sus esfuerzos para minimizar daños o enfrentar fuertes sanciones.
El periodo analizado abarca de abril de 2023 a febrero de 2024.
Desde la irrupción de ChatGPT de OpenAI en 2022, reguladores de todo el mundo han exigido mayores controles para evitar que la IA sea utilizada en terrorismo, fraude, pornografía deep fake y otros delitos digitales.
Para la Comisión Australiana de Seguridad Electrónica la información de la tecnológica Google representa una visión pionera en el mundo sobre cómo la IA puede ser explotada con fines ilícitos. La comisaria de eSafety, julie Inman Grant, destacó la importancia de que las empresas tecnológicas integren medidas de seguridad efectivas para evitar la generación de contenido dañino.
El informe de Google detalla que recibió 258 reportes sobre contenido terrorista o extremista violento generado con IA así como 86 reportes relacionados con material de abuso infantil. Un portavoz de Google aseguró que la compañía prohíbe estrictamente el uso de Gemini para generar material relacionado con terrorismo, explotación infantil u otras actividades ilícitas.
Google recibió 258 reportes sobre contenido terrorista generado con IA y 86 reportes sobre abuso infantil