Escuelas desprevenidas tras aumento de desnudos de adolescentes generados por inteligencia artificial – Excelsior California

0

[ad_1]

El problema comenzó, dijo ella, cuando el chico le pidió seguirla en TikTok. La niña de 13 años, estudiante de octavo grado en la Escuela Secundaria Aliso Viejo, dijo que la solicitud apareció en su perfil en febrero.

Su cuenta era privada, y había mantenido la mayoría de sus seguidores anteriores en un círculo pequeño de amigos y familiares. Pero ella conocía al chico por haber estado en varias clases juntos. Aceptó.

Unas semanas después, dijo la niña, se enteró de que no solo el chico le había tomado una captura de pantalla de su cuenta, sino que también había utilizado software de inteligencia artificial para poner su rostro en una foto de un cuerpo desnudo que no era el suyo. Y ahora, un pequeño grupo de chicos estaba compartiendo fotos manipuladas de ella entre ellos.

Su madrastra denunció las fotos al Distrito Escolar Unificado de Capistrano. Los administradores sacaron a uno de los chicos que compartió las fotos de las clases de la niña, pero él continuó acosándola fuera de clase, dijo ella. El chico que creó las imágenes generadas por IA permaneció en su clase.

“Me siento incómoda”, dijo la niña. “No quiero que esté cerca de mí.”

La familia dijo que más tarde descubrieron que el chico había creado fotos falsas de desnudos de al menos otras dos niñas y las había compartido.

Ryan Burris, un portavoz de Capistrano Unified, dijo que el distrito escolar está investigando lo sucedido. El distrito se ha negado a decir cuántos estudiantes están siendo investigados. No dijeron cuántos fueron objetivo de fotos falsas de desnudos. Y no dijeron si los estudiantes involucrados serían disciplinados.

“En general, las acciones disciplinarias pueden incluir suspensión y potencialmente expulsión dependiendo de las circunstancias del caso”, dijo Burris en un correo electrónico.

El Southern California News Group no está identificando a la niña ni a su madrastra.

‘Por detrás de la curva’

Lo que sucedió en la Escuela Secundaria Aliso Viejo se ha repetido varias veces en otras escuelas locales este año. En abril, el director de la cercana Escuela Secundaria Laguna Beach informó a los padres en un correo electrónico que varios estudiantes estaban siendo investigados por presuntamente usar herramientas de IA en línea para crear fotos desnudas de sus compañeras de clase. En marzo, cinco estudiantes fueron expulsados de una escuela secundaria de Beverly Hills después de que las chicas allí dijeran que fueron objeto del mismo modo.

Ya sea que la mayoría de los administradores escolares de todo el país lo sepan o no, el mismo tipo de acoso y bullying sexual generado por IA podría estar ocurriendo en sus campus también, dijeron los expertos.

“Estamos muy por detrás de la curva”, dijo John Pizzuro, un ex oficial de policía que alguna vez lideró la fuerza de tarea de Nueva Jersey sobre delitos en internet contra niños. “No hay regulación, política o procedimiento sobre esto”.

Pizzuro es ahora el CEO de Raven, una organización sin fines de lucro que hace lobby en el Congreso para fortalecer las leyes que protegen a los niños de la explotación basada en internet. Dijo que los legisladores estadounidenses todavía están tratando de ponerse al día con una tecnología que solo recientemente se volvió ampliamente disponible para el público.

“Con IA, puedes hacer que un niño parezca mayor. Puedes hacer que un niño parezca desnudo”, dijo Pizzuro. “Puedes usar IA para crear material de abuso sexual infantil a partir de una foto de solo un niño”.

Tan solo en el último año, las potentes aplicaciones y programas que utilizan IA han explotado en popularidad. Cualquier persona con acceso a internet ahora puede hacer uso de chatbots que simulan una conversación con una persona real, o generadores de imágenes que crean fotos con aspecto realista a partir de una simple solicitud de texto.

En medio del auge, un número desconocido de herramientas también han surgido permitiendo a los usuarios crear “deepfakes” —esencialmente, videos usando los rostros de celebridades y políticos, animados usando IA para colocarlos no solo en contenido satírico, sino también en pornografía no consensuada.

En esta línea, algunas aplicaciones ofrecen tecnología de “intercambio de caras” que permite a los usuarios poner el rostro de una persona desprevenida en el cuerpo de un actor pornográfico en fotos o videos. Otras aplicaciones ofrecen “desnudar” a cualquier persona en cualquier foto, reemplazando su cuerpo vestido con uno desnudo generado por IA.

Cuando surgieron por primera vez, los programas deepfake todavía eran rudimentarios y fáciles de detectar, dijeron los expertos. Pero poder distinguir entre un video real y uno falso solo podría volverse más difícil a medida que la tecnología mejora.

“(Estos programas) están años luz adelante de donde podríamos haber imaginado hace unos años”, dijo Michael Karanicolas, director ejecutivo del Instituto de Tecnología, Derecho y Política de UCLA.

Dijo que la facilidad de uso de los programas generadores de IA aseguraba que casi cualquier persona pudiera usarlos para crear fotos realistas de otra persona.

“No necesitas tener un doctorado para configurar estas cosas”, dijo. “Los niños siempre tienden a estar en la vanguardia de la innovación tecnológica. No me sorprende que haya jóvenes con la sofisticación para hacer este tipo de cosas”.

Experta en abuso tecnológico, Kristen Zaleski, terapeuta psicoterapeuta con sede en Newport Beach, dice que aún no ha visto a un oficial de policía o a un miembro del personal escolar que comprenda verdaderamente los daños de la IA y la violencia sexual.

“Como defensora, siento que necesitamos hacer mucho más para educar a los políticos y a la policía sobre la magnitud de este problema y el daño psicológico que causa”, dijo Zaleski, directora clínica principal del Colectivo de Salud Mental. “Todavía no he contactado con la policía para presentar un informe que lo haya tomado en serio o que tenga conocimiento de ello. Encuentro que gran parte de mi trabajo de defensa con la policía y los políticos consiste en educarlos sobre qué es esto en lugar de que entiendan cómo ayudar a los sobrevivientes”.

¿Qué leyes se aplican?

A pesar de su potencial para dañar, si las imágenes generadas por los estudiantes de sus compañeros realmente serían consideradas ilegales sigue siendo en gran parte incierto.

Hace solo dos años, el Congreso actualizó la Ley de Violencia contra las Mujeres para incluir la criminalización de la pornografía de venganza, que cubre la divulgación no consensuada de representaciones visuales íntimas de una persona. Pero los expertos legales dijeron que no está claro si la ley actualizada se aplicaría a representaciones ficticias de una persona, versus fotos reales que muestran un delito cometido contra ellas. Eso probablemente se aplicaría también a la definición de pornografía infantil.

“En la mayoría de los estados, la definición no incluiría una foto digital sintetizada e íntima de alguien, simplemente se excluyen”, dijo Rebecca Delfino, decana asociada de Programas Clínicos y Aprendizaje Experiencial en la Facultad de Derecho de Loyola, y experta en la “intersección de la ley y los eventos y emergencias actuales”.

Explicó: “Tienes que tener un individuo, un individuo claro y definido —ves su rostro, ves su cuerpo. Sabes que es una persona. Tienes una víctima que está siendo abusada, tomaste imágenes reales de ellos haciendo algo. Esas son fotos genuinas”.

Varios expertos citaron el caso de la Corte Suprema de EE.UU. de 2002, Ashcroft v. Free Speech Coalition, que anuló una disposición de la Ley de Prevención de Pornografía Infantil que prohibía todas las representaciones de pornografía infantil, incluidas las generadas por computadora. La corte dictaminó que la ley era demasiado amplia y violaba las protecciones de la Primera Enmienda para la libertad de expresión; los jueces impidieron al gobierno de EE.UU. prohibir imágenes donde no se cometió ningún delito para crearlas.

“¿Puedes arrestarme y acusarme en un caso donde todo el video es un niño falso?”, dijo Delfino. “Según ese caso de la Corte Suprema, la respuesta es ‘no’.”

Hasta ahora, muchos estados han intentado abordar el problema, pero sus esfuerzos aún varían ampliamente. Al menos 10 estados han aprobado leyes que prohíben explícitamente deepfakes pornográficos no consensuados. Pero solo algunos agregaron sanciones penales de multas y tiempo de cárcel; otros abrieron a los perpetradores a demandas civiles y penalidades.

Eso deja a la mayoría de los estados sin ninguna ley que prohíba los deepfakes en la mayoría de las circunstancias. Eso incluye a California.

Varios proyectos de ley presentados en la legislatura estatal este año buscan abordar el problema. Pero por ahora, la policía y los fiscales locales tienen pocas opciones para presentar casos solo por la producción de material deepfake, especialmente cuando los perpetradores también son niños.

Delfino dijo que la policía podría intentar presentar casos contra los creadores de deepfake bajo leyes de acoso cibernético y bullying que ya existen. Pero típicamente esas leyes incluyen el requisito de que las acciones del perpetrador causen que la víctima tema razonablemente por su seguridad.

Eso significa que los distritos escolares y los padres de los niños a los que sirven no tienen mucho en qué confiar mientras navegan por las consecuencias de la IA ampliamente disponible.

“Si un padre me llamara y me preguntara, ‘¿Qué hago?’ lo primero que haces es ir a tu distrito escolar”, dijo Delfino. “La mayoría de los distritos escolares tienen códigos de conducta relacionados con el comportamiento de sus estudiantes, y típicamente son lo suficientemente amplios como para abordar lo que se consideraría acoso”.

En la Escuela Secundaria Aliso Viejo, la madrastra de la niña de 13 años víctima de sus compañeros cree que hasta ahora el incidente ha sido manejado “muy pobremente”.

A pesar de denunciar las fotos, la madrastra dijo que no recibió noticias de nadie en el distrito escolar hasta que presentó una queja formal más de una semana y media después.

Hasta esta semana, dijo ella, no ha habido acciones claras tomadas por el distrito escolar. Dijo que no ha sido notificada de ninguna medida disciplinaria oficial por parte de la escuela contra los estudiantes involucrados en la creación de las fotos.

“Siento que la escuela está fallando en proteger a estas niñas”, dijo, “o a las niñas en el futuro, al manejar esto”.


Original story in San Bernardino Sun:

Fast rise in AI nudes of teens has unprepared schools, legal system scrambling for solutions

[ad_2]

Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

colleague-ratty
colleague-ratty
colleague-ratty
colleague-ratty
نيكه porndotcom.org حرامى ينيك
probinsyano april 5 2017 pinoyshowstv.com pagsabog sa quiapo
animals sexy videos assoass.mobi open bf sex
xxxvedioes pakistanipornstar.com indian sex in open
marati bipi yourporn.name khudgarz
سكس حقيقى مصرى houmar.com سكس بزاز وطياز
allahabad sexy russianporntrends.com xnxx horse
bangladesh bf com indianhardfuck.net dedi sex com
tamil sxe videos com koreanporntrends.com www.teluguking.net
xxx youtube video porncorn.info sex film kannada
fuking movies lamboborn.mobi top indian porn site
desixxxvideo soloporntrends.com mahfuz ahmed
xxx telugu vedios romaporn.mobi super sex indian
زوبر وكس pornkino.org سكس نيك ممرضات
cam4.com fuckzilla.mobi xnnx sex