La información proporcionada en EL7.AI es solo con fines educativos e informativos y no constituye asesoramiento financiero.
La Internet Watch Foundation (IWF) ha informado de un asombroso aumento de 260 veces en el material de abuso sexual infantil (CSAM, por sus siglas en inglés) generado por IA durante el último año. La fundación advirtió que los hallazgos actuales representan solo la 'punta del iceberg', destacando el rápido uso indebido de las herramientas de IA generativa. Los datos muestran que uno de cada 17 jóvenes ha experimentado personalmente el abuso de imágenes deepfake, mientras que una de cada ocho personas conoce a una víctima. Este aumento está ejerciendo una presión inmensa sobre los principales desarrolladores de IA, incluidos MSFT, GOOGL y META, para que implementen marcos de seguridad más estrictos. Se espera que el aumento de la responsabilidad legal y los crecientes costos del cumplimiento obligatorio de seguridad pesen sobre los márgenes de beneficio de las principales empresas tecnológicas. A medida que los reguladores globales intensifican su escrutinio, la industria enfrenta riesgos significativos de ESG que podrían afectar las trayectorias de crecimiento a largo plazo y el sentimiento de los inversores.
Regístrese gratis para acceder a este contenido
Crear cuenta gratuita