Aujourd'hui l'économie – Le Pentagone est-il en train de faire plier la start-up d'IA Anthropic?

Date:

Aux États-Unis, le ministère américain de la Défense a lancé un ultimatum à la start-up d’intelligence artificielle Anthropic, lui demandant de lever toutes les restrictions à l’utilisation de son IA par le Pentagone. Faute de quoi, l’entreprise serait inscrite sur la liste noire du gouvernement.

Les tensions datent de septembre dernier quand Pete Hegseth, le secrétaire américain à la Défense, a demandé aux fournisseurs de modèles d’IA de pouvoir les utiliser sans réserve à des fins militaires. Tous les groupes, parmi lesquels OpenAI et Google, donnent leur accord, y compris Anthropic. La start-up oppose toutefois son veto à ce que sa technologie ne serve à l’espionnage massif des citoyens américains et à des opérations militaires mortelles sans intervention humaine.

Depuis, les relations entre le Pentagone et l’entreprise n’ont fait que s’envenimer. 

La menace du Pentagone est réelle

Les conséquences d’une inscription sur cette liste noire seraient potentiellement graves pour la start-up californienne. Anthropic y figurerait aux côtés de l’équipementier chinois Huawei ou du spécialiste russe des logiciels antivirus Kaspersky. Des sociétés qui constituent une menace pour la sécurité nationale des États-Unis et qui sont pour la plupart d’entre elles étrangères. Toute entreprise qui voudrait faire affaire avec l’armée américaine devrait alors couper les ponts avec Anthropic.

La jeune start-up y risque gros, à commencer par un contrat de 200 millions de dollars signé avec l’armée.

Le revirement d’Anthropic

Hasard du calendrier ou pas : au moment où le Pentagone hausse le ton, Anthropic annonce qu’il assouplit ses règles de sécurité. Comment comprendre ce revirement ?

La start-up californienne l’affirme : cette mesure est nécessaire pour suivre le rythme de l’évolution de l’IA. Cette décision marque en effet un tournant par rapport à la position précédente du patron d’Anthropic, Dario Amodei. Revendiquant une approche éthique de l’intelligence artificielle, celui-ci privilégiait la sécurité. Une vision qui le distinguait de ses concurrents, notamment OpenAI. Ne faut-il pas y voir un gage d’apaisement ?

Le contexte politique a changé

Peut-être car jusque-là les relations étaient excellentes. Son agent conversationnel Claude est à ce jour le seul à être utilisé dans les opérations classifiées. Selon le quotidien américain The Wall Street Journal, le Pentagone l’aurait utilisé lors de l’exfiltration du président Maduro du Venezuela. Mais l’intransigeance de son patron a valu à la pépite californienne de se retrouver dans le collimateur de l’administration Trump.

Il y a évidemment un fonds politique : Dario Amodei n’a jamais caché ses sympathies démocrates, au point de voir sa société être qualifiée de « l’IA woke ».

Il y a trois ans, le PDG d’Anthropic se disait encore prêt à retarder le développement d’IA potentiellement dangereuse. La start-up privilégie désormais la compétitivité en matière d’IA et la croissance économique. Ces mêmes arguments qui ont poussé Dario Amodei et certains de ses collègues à quitter OpenAI et à fonder Anthropic en 2021. Mais depuis le contexte politique a changé et l’entreprise en prend acte.

L’enjeu est de taille. Le créateur de Claude veut introduire Anthropic en bourse cette année. Elle est actuellement valorisée à hauteur de 380 milliards de dollars.

Source du contenu: www.rfi.fr

Share post:

Populaire

More like this
Related