Meta autorise l'utilisation de son intelligence artificielle à des fins militaires

Meta, la société propriétaire de Facebook, va désormais permettre aux agences gouvernementales d’utiliser son intelligence artificielle dans un but de sécurité nationale. Le modèle d’IA générative de Facebook, nommé Llama, sera ainsi mis à disposition des agences et de leurs partenaires pour des usages liés à la sécurité nationale. Meta a effectivement approuvé cette utilisation à des fins militaires, comme annoncé par l’entreprise le lundi 4 novembre.

Ce choix marque un changement pour Meta, qui interdisait jusqu’ici ce type d’usage. Cette autorisation couvre plusieurs secteurs de la défense, y compris ceux de l’armée et de l’industrie nucléaire. Les agences fédérales ainsi que certaines entreprises privées pourront donc se servir de Llama, capable de générer du texte et des images, à l’instar de ChatGPT d’OpenAI.

Assurer la sécurité des États-Unis « Meta souhaite contribuer à l’effort de sécurité et à la prospérité économique des États-Unis, ainsi qu’à celle de ses alliés les plus proches », déclare Nick Clegg, responsable des affaires publiques chez Meta.

Lire aussi|Cybersécurité : Meta utilise de nouveau la reconnaissance faciale sur Facebook

Pour expliquer ce changement, Clegg souligne que l’IA de Meta est en open source, avec un code accessible librement. Il précise que cela permettra au gouvernement américain de suivre des terroristes et de renforcer la sécurité des institutions, tout en garantissant l’avance des États-Unis dans le domaine des nouvelles technologies.

Par ailleurs, cinq pays bénéficieront d’un partage de ressources technologiques dans le cadre de l’alliance « Five Eyes », qui inclut le Canada, le Royaume-Uni, l’Australie, et la Nouvelle-Zélande, en plus des États-Unis.

Cependant, un tel partenariat pourrait susciter des débats en interne. Lors de précédents contrats similaires, des employés de Microsoft et Google s’étaient opposés à ce que leurs outils soient utilisés par l’armée. Certaines entreprises, comme OpenAI, ont d’ailleurs refusé de conclure de tels accords avec le gouvernement, affirmant que leurs outils étaient « trop puissants » et risquaient d’être utilisés de manière abusive.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here