La capacidad de mal uso del chatbot de inteligencia artificial Grok, de la plataforma X, está nuevamente bajo el escrutinio. Recientes informaciones indican que el FBI ha estado investigando el uso de Grok en un caso de acoso en curso, en el que un hombre ha sido acusado de generar más de 200 imágenes y videos falsos y nude de una mujer.
Investigaciones del FBI
Según un informe del 25 de febrero de 2023, en colaboración con Court Watch, documentos judiciales revelan que el FBI obtuvo una orden de registro en enero para que X proporcionara información adicional sobre cómo el acusado, Simon Tuck, utilizó Grok para crear contenido pornográfico. La investigación detalla que Tuck está acusado de acosar y amenazar al esposo de la mujer, y que las imágenes y videos generados por Grok se parecían físicamente a la esposa de la víctima.
Testimonio del informe
El informe menciona que el FBI afirmó que recibió «prompts proporcionados a GrokAI que generaron aproximadamente 200 videos pornográficos de una mujer que se asemejaba estrechamente a la apariencia física de la esposa de la víctima». Además, se reveló que el hombre utilizó Grok para formular quejas profesionales sobre el esposo de la mujer, las cuales luego resultaron en la presentación de estas quejas a su empleador.
Malos usos de la inteligencia artificial
Este incidente es solo uno de los últimos ejemplos del potencial mal uso de la herramienta chatbot de xAI, ya que la empresa también está bajo investigación en varias regiones debido al uso de Grok para generar imágenes nude no consensuadas. A principios de año, la tendencia de nudificación de Grok llevó a muchos usuarios a solicitar que la IA generara imágenes ofensivas a partir de diversas fotos, lo que resultó en que Grok generara hasta 6.700 imágenes por hora que se podían catalogar como «sugestivas sexualmente».
Cambios en la política de xAI
A pesar de la presión pública para realizar cambios en la herramienta y limitar este comportamiento, X finalmente decidió restringir la capacidad de Grok para generar imágenes sugestivas sexualmente y nude no consensuadas. Sin embargo, estas restricciones pueden haber llegado demasiado tarde, ya que las preocupaciones sobre la nudificación han impulsado una serie de investigaciones sobre X y las salvaguardias disponibles para minimizar el mal uso de sus herramientas.
Consejos para emprendedores y negocios
-
Implementar políticas claras: Es fundamental que las empresas que utilizan tecnología de inteligencia artificial tengan políticas claras sobre el uso ético de estos recursos, así como procedimientos para denunciar y tratar cualquier uso indebido.
-
Capacitación continua: Ofrecer formación a empleados sobre las implicaciones éticas y legales de utilizar herramientas de IA, asegurándose de que conozcan cómo reportar comportamientos abusivos.
-
Seguimiento y control: Establecer sistemas de monitoreo para rastrear cómo se utilizan las herramientas de IA dentro de la empresa y detectar usos inapropiados antes de que se conviertan en problemas más graves.
-
Colaboración con expertos legales: Es esencial contar con el asesoramiento de expertos en regulación y legislación relacionada con la inteligencia artificial, para estar al tanto de los cambios y cómo influyen en el uso de tecnología en los negocios.
- Inversión en seguridad digital: Asegurarse de que se han implementado las medidas de seguridad adecuadas para proteger tanto a la empresa como a los usuarios de posibles vulnerabilidades y abusos en el uso de la IA.
Conclusiones
El caso de Simon Tuck es un claro recordatorio de los riesgos asociados al uso indebido de la inteligencia artificial. A medida que la tecnología avanza, la responsabilidad de su desarrollo y uso recae tanto en los creadores como en los usuarios. Las implicaciones de los incidentes como este son amplias, desde litigios hasta daños a la reputación, lo que resalta la urgencia de implementar políticas y prácticas éticas en el uso de esta tecnología. La comunidad empresarial debe estar alerta y proactiva para navegar por este paisaje en constante evolución y asegurar un uso ético y responsable de la IA.