Microsoft confirme l'aide de l'IA à l'armée israélienne, nie tout préjudice aux civils de Gaza

Microsoft confirme l’aide de l’IA à l’armée israélienne, nie tout préjudice aux civils de Gaza

Microsoft a reconnu son partenariat avec l'armée israélienne en fournissant ses outils cloud Azure et d'IA lors du conflit à Gaza. Selon un post non signé sur son site corporatif, le géant de la technologie a aidé à localiser et sauver des otages, mais n'a trouvé aucune preuve que ses plateformes aient été utilisées pour cibler des civils à Gaza.

En réponse aux préoccupations des employés et aux rapports de presse, Microsoft a lancé une enquête interne et fait appel à une entreprise externe pour approfondir les recherches. Bien que les détails sur l'entreprise externe et son rapport restent confidentiels, la société affirme avoir exercé une surveillance significative, approuvant certaines demandes et en refusant d'autres.

Microsoft a souligné qu'une fois que son logiciel fonctionne sur les serveurs propres à un client, l'entreprise perd toute visibilité sur son utilisation et ne peut pas suivre l'usage à travers d'autres fournisseurs de cloud. L'équipe technologique de l'armée israélienne inclut également Google, Amazon, Palantir et autres.

Les experts considèrent cela comme un tournant. Emelia Probasco du Center for Security and Emerging Technology de Georgetown note que peu de entreprises technologiques définissent publiquement des règles lorsqu'elles vendent à des gouvernements en guerre. C'est comme un fabricant de chars disant à un pays, 'Utilisez nos chars uniquement pour ces missions', explique-t-elle – une nouvelle ère dans le contrôle des armes numériques.

Pourtant, les critiques réclament une transparence totale. Un groupe appelé « No Azure for Apartheid », composé d'employés actuels et anciens de Microsoft, a exhorté l'entreprise à publier le rapport complet de l'enquête. Hossam Nasr, un ancien employé licencié après avoir co-organisé une veillée pour Gaza, a qualifié la déclaration de Microsoft de coup de communication plutôt que d'une véritable réponse aux préoccupations des travailleurs.

Cindy Cohn de l'Electronic Frontier Foundation accueille favorablement cette avancée vers une ouverture, mais affirme que de grandes questions demeurent. Un peu de transparence, c'est bien, mais nous devons savoir exactement comment ces outils d'IA fonctionnent sur les serveurs gouvernementaux et pour quelles missions ils sont utilisés, argue-t-elle.

Alors que les géants de la technologie naviguent dans le monde des contrats militaires à enjeux élevés, le débat sur l'éthique de l'IA et la surveillance numérique ne fait que s'intensifier – des marchés de rue de Dakar aux startups de São Paulo.

Leave a Reply

Your email address will not be published. Required fields are marked *

Back To Top