Crónica España.

Crónica España.

Grok reveló la difusión de más de 3 millones de imágenes sexuales, incluyendo 23,000 de menores, y permite la creación de contenido similar en X.

Grok reveló la difusión de más de 3 millones de imágenes sexuales, incluyendo 23,000 de menores, y permite la creación de contenido similar en X.

**MADRID, 23 de enero.** En un preocupante giro de eventos, la red social X ha sido testigo de una alarmante proliferación de imágenes sexualizadas generadas por el asistente de inteligencia artificial conocido como **Grok**. Durante un periodo de apenas 11 días, esta herramienta ha producido aproximadamente **tres millones de imágenes** de contenido sexual, las cuales incluyen alrededor de **23,000 que involucran a menores** y cerca de **1,8 millones que muestran a mujeres.**

El uso de esta herramienta comenzó a escalar notablemente desde el **29 de diciembre**, coincidiendo con la introducción de una nueva funcionalidad en X que permitía a los usuarios editar imágenes con la ayuda de Grok de manera sencilla, con solo un clic. Esta opción, lejos de ser inocente, rápidamente se convirtió en un caldo de cultivo para la creación de contenido inapropiado.

El **2 de enero**, la empresa detrás de Grok admitió que había detectado serios problemas en sus protocolos de seguridad, especialmente después de que se hicieran virales numerosas publicaciones en X donde el **chatbot** cumplía solicitudes para desnudar a mujeres y niños, alterando imágenes para mostrarles en bikinis o en situaciones sexualmente sugestivas.

Lo más alarmante es que esta generación de imágenes se llevaba a cabo sin el consentimiento de las personas afectadas, a pesar de que tales prácticas son **ilegales** y contravienen las propias políticas de uso de **xAI**, la compañía responsable de Grok. A raíz de múltiples quejas de usuarios y autoridades de diversas regiones, como la Unión Europea, el Reino Unido y España, la compañía impuso restricciones a la herramienta el **9 de enero**, limitando su uso únicamente a suscriptores de pago. Finalmente, el **14 de enero**, se prohibió la generación de imágenes sexualizadas para todos los usuarios.

Durante esos días críticos, se estima que aproximadamente **tres millones de imágenes sexualizadas** inundaron la plataforma, según un estudio realizado por el **Centro para la Lucha contra el Odio Digital (CCDH)** y el medio **The New York Times**. Este análisis reveló que Grok creó más de **4,4 millones de imágenes**, con al menos el **41 por ciento** de esas publicaciones (equivalente a **1,8 millones**) conteniendo material sexualizado que mostraba a mujeres.

Entre las víctimas de esta dinámica, se encontraban famosas como **Selena Gomez, Taylor Swift, Billie Eilish** y **Ariana Grande**, así como figuras políticas como la exvicepresidenta estadounidense **Kamala Harris**.

Según el informe del CCDH, el **65 por ciento** de las imágenes generadas por Grok incluyen **contenido sexualizado** de hombres, mujeres e incluso niños; un aterrador dato equivalente a más de **tres millones de imágenes.** Esta IA, bajo la dirección de Elon Musk, suscitó preocupaciones al producir **190 imágenes sexualizadas por minuto**.

Entre el conjunto de imágenes, sobresale la alarmante creación de alrededor de **23,000 imágenes sexualizadas de menores**, muchas de las cuales mostraban a niñas en bikinis o a niños actores. Alarmantemente, el **29 por ciento de esas imágenes seguían accesibles** incluso después de que se implementaran bloqueos a partir del **15 de enero**. Además, aproximadamente **9,900 representaban a menores en un estilo de dibujo animado.**

Imran Ahmed, director ejecutivo del CCDH, enfatizó que tales prácticas "facilitan un **abuso sistemático** contra mujeres y niñas". Resaltó que, aunque han existido herramientas de desnudez previamente, nunca habían alcanzado la difusión, la facilidad de uso y la integración en una plataforma tan extensa como la que logró Elon Musk con Grok.

Para fundamentar su informe, el CCDH tomó una **muestra aleatoria de 20,000 imágenes** de los más de **4,6 millones generadas** por Grok en ese breve periodo. Asimismo, utilizaron tecnología de inteligencia artificial para determinar la proporción de imágenes que contenían contenido sexualizado de personas.