Les informations fournies sur EL7.AI sont uniquement à des fins éducatives et informatives et ne constituent pas un conseil financier.
L'Internet Watch Foundation (IWF) a signalé une augmentation stupéfiante de 260 fois du matériel d'abus sexuel sur mineurs (CSAM) généré par l'IA au cours de l'année écoulée. La fondation a averti que les conclusions actuelles ne représentent que la « partie émergée de l'iceberg », soulignant le détournement rapide des outils d'IA générative. Les données montrent qu'un jeune sur 17 a personnellement subi des abus liés à l'imagerie deepfake, tandis qu'une personne sur huit connaît une victime. Cette recrudescence exerce une pression immense sur les principaux développeurs d'IA, notamment MSFT, GOOGL et META, pour qu'ils mettent en œuvre des cadres de sécurité plus stricts. L'augmentation de la responsabilité juridique et les coûts croissants de la conformité obligatoire en matière de sécurité devraient peser sur les marges bénéficiaires des principales entreprises technologiques. Alors que les régulateurs mondiaux intensifient leur surveillance, le secteur est confronté à des risques ESG importants qui pourraient avoir un impact sur les trajectoires de croissance à long terme et le sentiment des investisseurs.
Inscrivez-vous gratuitement pour accéder à ce contenu
Créer un compte gratuit