El gobierno de Corea del Sur está mirando hacia acciones regulatorias contra el chatbot de inteligencia artificial (IA) generativa de xAI, Grok, de propiedad de Elon Musk. Esto sigue a varias críticas dirigidas al chatbot y su participación en la generación y distribución de imágenes deepfake sexualmente explotadoras.

La información fue reportada por un medio local, el Electronic Times, que mencionó que la Comisión de Protección de Información Personal (PIPC) ha lanzado una revisión preliminar de recopilación de hechos sobre Grok después de que las alegaciones fueran reportadas en el condado por varias personas.

El proceso preliminar es confirmar si la violación realmente ocurrió y si el asunto está dentro de su jurisdicción antes de que se pueda iniciar una investigación formal.

El gobierno de Corea llevará a cabo una revisión sobre Grok

Según informes, la revisión sigue a varios informes que surgieron local y en el extranjero, acusando a Grok de ser utilizado para crear imágenes profundas explícitas y no consensuadas, la mayoría de las cuales involucran a personas reales y menores.

Con esto, se espera que el PICP determine su próximo curso de acción después de revisar la explicación proporcionada por Grok y otros documentos de apoyo. La agencia también se espera que revise tendencias regulatorias globales, que darían forma a su toma de decisiones.

Bajo la Ley de Protección de Información Personal, alterar o generar imágenes sexuales de individuos identificables sin consentimiento puede constituir un manejo ilegal de datos personales.

Los chatbots de IA, que están integrados en la plataforma social X y ofrecen tanto generación de texto como de imágenes en la plataforma, han enfrentado varias críticas por la creación de imágenes falsas de personas reales desde el año pasado. El chatbot se ha utilizado para crear todo tipo de imágenes comprometedoras, que han sido mal vistas por el público en general.

Según la organización no gubernamental global Center for Countering Digital Hate, se estima que Grok ha sido utilizado para generar más de tres millones de imágenes sexualmente explícitas entre el 29 de diciembre de 2025 y el 8 de enero de 2026.

La organización afirma que entre ese número, más de 23,000 eran imágenes de menores generadas utilizando el chatbot. El centro advirtió que la rápida propagación de las imágenes generadas por IA de Grok ha llevado a una circulación a gran escala de contenido explícito en línea.

El regulador quiere un informe sobre las medidas adoptadas para frenar la amenaza

El centro también ha advertido sobre los graves riesgos de seguridad que el desarrollo plantea para los niños. Como resultado de esta amenaza, países como Estados Unidos, Reino Unido, Francia, Canadá y algunos otros han lanzado investigaciones, mientras que países como Indonesia, Filipinas y Malasia han bloqueado el acceso a Grok.

En respuesta a la controversia, xAI anunció a principios de este año que había implementado ciertas medidas técnicas para prevenirlo.

La plataforma afirmó que ha detenido tanto a usuarios gratuitos como de pago de editar o generar imágenes de personas reales, añadiendo que anunciará más salvaguardias muy pronto.

En Corea, la Comisión de Medios y Comunicaciones (KMCC) exigió medidas más estrictas de protección juvenil de X el 14 de enero. El regulador coreano le dijo a la plataforma de redes sociales que su empresa de IA necesita idear un plan para prevenir la generación de contenido ilegal o dañino.

Además, el regulador también añadió que la empresa necesita limitar el acceso de los menores a dicho contenido.

Actualmente, X tiene un oficial de protección juvenil designado en Corea de acuerdo con la ley y presenta informes anuales sobre el cumplimiento relacionado. KMCC ha instado a la plataforma a presentar documentación adicional sobre el protocolo de seguridad de Grok, señalando que las imágenes sexuales no consensuadas creadas y distribuidas en su plataforma, especialmente involucrando a menores, son un delito en Corea.

La comisión ha establecido un plazo de dos semanas. Si X no responde o ignora la solicitud, puede imponer una multa administrativa de hasta 10 millones de won ($6,870). El mismo movimiento se ha observado en otros países, donde xAI ha sido encargado de idear medidas para frenar el aumento de la amenaza.

Al igual que Corea, los países también han anunciado multas sustanciales si la empresa no logra idear y presentar un informe que muestre los pasos que ha tomado para limitar el aumento de la amenaza.

¿Quieres que tu proyecto esté frente a las mentes más brillantes del cripto? Destácalo en nuestro próximo informe de la industria, donde los datos se encuentran con el impacto.