Meta AI y los nuevos escenarios del abuso sexual infantil
Meta AI es un recurso clave que las autoridades utilizan para detectar contenido sexual explícito. Actualmente Meta ha decidido dificultar la localización de sus usuarios cifrando su servicio de mensajería. ¿Quieres saber más? ¡Sigue leyendo!
¿Qué sucedió con Meta AI?
Meta AI es una de las plataformas más influyentes de hoy en día. Una de sus medidas de seguridad es el cifrado de extremo a extremo de los chats. Aunque esta medida es muy buena se torna algo contradictorio para combatir los ciberataques.
En respuesta a estas preocupaciones, los miembros del Congreso han enfatizado la necesidad de protecciones más fuertes. Desde el miércoles se han estado creando mecanismos en todas las empresas y redes sociales para proteger a los niños. La semana pasada, una foto falsa de Taylor Swift con una escena de sexo oculta creada con IA arrasó en las redes sociales, destacando los peligros de la tecnología.
«El uso de inteligencia artificial para crear imágenes sexualmente explícitas de niños es una forma particularmente inhumana de explotación en línea», afirmó Steve Grocchi, director de la División de Explotación y Pornografía Infantil del Departamento de Justicia.
¿Cómo se realizan estos ciberataques en Meta AI?
La facilidad de uso de la tecnología de inteligencia artificial permite a los delincuentes crear innumerables imágenes de niños explotados o abusados sexualmente con solo hacer clic en un botón. Además de representaciones explícitas de niños inexistentes, se pueden crear nuevas imágenes de niños reales.
Un estudio reciente del Reino Unido encontró que esto podría incluir material de inteligencia artificial que muestre a bebés o niños de alto perfil como víctimas de abuso sexual, así como fotografías escolares comunes alteradas para mostrar a todos los niños desnudos.
El temor al que nos enfrentamos ahora es que cualquiera pueda fotografiar a niños en las redes sociales, en páginas escolares o en eventos deportivos, mediante un proceso que llamamos captura, explica Michael Burke, ex psicólogo estadounidense. Los alguaciles llevan décadas lidiando con delitos sexuales que involucran a niños.
¿Qué acciones legales se deben tomar para evitar el abuso infantil?
Confirmó que el uso de IA para alterar fotografías de esta manera es común. Los expertos dijeron que es difícil distinguir entre víctimas reales y falsas. Los organismos encargados de hacer cumplir la ley carecen de personal y fondos suficientes. A pesar de esto luchan por mantenerse al día con los rápidos avances tecnológicos, aunque las imágenes de abuso sexual infantil se difunden a un ritmo alarmante. Estos se viralizan en internet a través de las cámaras de los móviles, la web oscura, las redes sociales y las aplicaciones de mensajería.
Sólo se investiga una parte de los materiales reconocidos como delictivos. El uso de IA complica otros aspectos de la identificación del abuso sexual infantil. Al material conocido normalmente se le asigna una serie de números similares a las huellas dactilares utilizadas para identificar y eliminar contenido ilegal.
Cuando se modifican imágenes y videos familiares, el material parece nuevo y ya no está asociado con el pasaje. Estas cuestiones se complican aún más por el hecho de que, si bien las empresas de tecnología están obligadas por ley a denunciar el material ilegal que descubren, no están obligadas a buscarlo activamente.
Estrategias de Meta AI para evitar el abuso infantil
Las empresas de tecnología pueden adoptar una variedad de estrategias. Meta AI ha sido el mejor aliado de las autoridades a la hora de detectar contenidos sexualmente explícitos sobre niños.
A partir de 2022, Meta AI ha donado alrededor de $21 millones de los $32 millones reportados al Centro Nacional para Niños Desaparecidos y Explotados, una agencia designada a nivel federal para manejar informes de abuso sexual infantil. Lamentablemente, la empresa decidió cifrar su plataforma de mensajería para cegar a los investigadores y competir con otros servicios de seguridad que protegen el contenido de los usuarios.
La abogada de Raven, Jennifer Dunton, advirtió sobre las implicaciones de tal decisión, diciendo que limitaría drásticamente la cantidad de delitos que las autoridades pueden detectar. «Ahora hay imágenes que nadie ha visto nunca y ya no las buscamos», se quejó.
El gigante de las redes sociales Facebook dijo que seguirá denunciando material de abuso sexual infantil a las autoridades. «Tenemos la obligación de encontrar y reportar este contenido mientras nos esforzamos por prevenir el abuso en primer lugar», dijo el portavoz de Meta, Alex Dzidzan.
En 2002, la Corte Suprema anuló una prohibición federal de imágenes de abuso sexual infantil generadas por computadora, dictaminando que la ley era tan amplia que también podía restringir obras políticas y artísticas.
Medidas de seguridad adoptadas por Meta AI
Estas son algunas de las medidas que Meta AI ha puesto en marcha a raíz de la ola de abusos infantiles y ciberataques:
Se han bloqueado mensajes de contactos desconocidos
Una de las medidas incluye una nueva preferencia que desactiva la posibilidad de recibir mensajes de extraños. Ahora sólo puedes recibir mensajes o unirte a chats grupales de personas a las que ya te hayas suscrito o que estén en tu libreta de direcciones. Por lo tanto, la plataforma se esfuerza por proteger a amigos, familiares y seres queridos de visualizaciones, abusos y acoso, sin afectar su derecho a acceder a sus comunicaciones.
Más controles parentales en Instagram y Facebook
Los adolescentes con controles parentales necesitan el permiso de los padres para cambiar la configuración predeterminada de seguridad y privacidad a configuraciones más estrictas. Pueden aceptar o rechazar la solicitud de cambio de su hijo.
Por ejemplo, si un menor desea hacer pública su cuenta personal o administrar contenido confidencial en esa cuenta, debe obtener la aprobación de sus padres. Esta medida se suma a otras medidas de control parental que tienen los padres, como la capacidad de programar límites de tiempo e interrupciones, y recibir notificaciones cuando el adolescente bloquea o denuncia a alguien.
Sugerencias de contenido para jóvenes
A principios de enero, Meta implementó otras medidas para proteger a los jóvenes. Estas incluyen configuraciones estrictas para mostrar contenido en Instagram y Facebook, que ya estaban implementadas cuando te uniste a estas redes sociales, pero que ahora se han extendido a todos los que tengan una cuenta activa.
Nuevas políticas sobre suicidio, autolesiones y trastornos alimentarios
La compañía dijo que era aceptable compartir contenido sobre suicidio, autolesiones y tratamiento de trastornos alimentarios, pero la nueva política dificultaba la provisión y el acceso. Ahora, cuando las personas buscan términos relacionados con estos temas, lo más frecuente es que encuentren recursos que les ayuden.
Configuraciones de seguridad estrictas para menores
La compañía también decidió enviar notificaciones a los adolescentes este mes, animándolos a verificar su configuración de seguridad y privacidad en Instagram y actualizarla para una experiencia más personalizada. También hay una opción «Habilitar configuración recomendada» que se ajustará automáticamente en consecuencia.