VU D’AILLEURS – Des chercheurs de l’EPFL ont perverti les principaux agents conversationnels dont ChatGPT. Est-ce grave? Une anthropologue, un sociologue et un professeur d’informatique répondent.
Catherine Cochard (Tribune de Genève)
Les agents conversationnels comme ChatGPT ne sont a priori pas conçus pour nous nuire. Mais en raison de leurs failles, de sécurité notamment, ces outils peuvent être détournés et produire des contenus nocifs.
Des chercheurs de l’EPFL sont parvenus à contourner la sécurité des principaux LLM («large language model», en anglais),ces modèles de langage permettant à ChatGPT ou à Claude de converser. Les scientifiques sont ensuite parvenus à faire produire aux principaux agents conversationnels des contenus nocifs, comme un tutoriel pour construire des armes ou pirater des gouvernements.
À lire aussi
«ChatGPT, je devrais acheter quoi?»: se faire bien voir des modèles d’IA, un nouvel enjeu pour les marques
Ces failles raniment la crainte de voir les machines intelligentes se retourner contre l’humanité qui les a créées. ChatGPT et ses semblables nous veulent-ils du mal, comme l’ont prédit une foule de récits depuis la nuit des temps? Sous ses airs serviables, ChatGPT est-il un HAL en puissance, le superordinateur meurtrier du film 2001, l’odyssée de l’espace de Stanley Kubrick?…
Source du contenu: www.lefigaro.fr
