logo

Intelligence artificielle : les 5 dérives les plus dangereuses pour l'humanité Intelligence artificielle : les 5 dérives les plus dangereuses pour l'humanité

Intelligence artificielle : les 5 dérives les plus dangereuses pour l'humanité

euronews 28 Aug 2024,00:40

Désinformation, création de deepfakes pornographiques, manipulation des processus politiques... À mesure que l'intelligence artificielle (IA) progresse, les risques potentiels liés à cette technologie n'ont cessé de croire.

Les experts du groupe FutureTech du Massachusetts Institute of Technology (MIT) ont récemment compilé une nouvelle base de données de plus de 700 risques potentiels de l'IA, classés en fonction de leur cause et répartis en sept domaines distincts, les principales préoccupations étant liées à la sécurité, aux préjugés et à la discrimination, ainsi qu'à la protection de la vie privée. Euronews Next vous présente les 5 risques les plus importants que l'IA pourrait présenter pour la vie humaine.

1. Manipulation de l'opinion publique

Le clonage de voix et la génération de contenus truqués au moyen de l'IA deviennent de plus en plus accessibles, personnalisés et convaincants.

Selon les experts du MIT, " ces outils de communications (par exemple le clonage de la d'un être cher), sont de plus en plus aboutis et donc difficiles à détecter par les utilisateurs et les outils de lutte contre l'hameçonnage".

Les outils d'hameçonnage utilisant des images, des vidéos et des communications audio générées par l'IA pourraient ainsi servir à diffuser de la propagande ou de la désinformation ou à influencer des processus politiques, comme cela a été le cas lors des récentes élections législatives françaises, où l'IA a été utilisée par les partis d'extrême droite pour appuyer leurs messages politiques.

Related
  • "La honte doit changer de camp" : une mannequin belge alerte sur les deepnudes

2. Une dépendance émotionelle

Les scientifiques craignent également que l'utilisation d'un langage proche de celui des humains ne pousse les utilisateurs à attribuer des qualités humaines à l'IA, ce qui pourrait entraîner une dépendance émotionnelle et une confiance accrue dans ses capacités. Ceux-ci seraient ainsi plus vulnérables aux faiblesses de la technologie, dans des "situations complexes et risquées pour lesquelles l'IA n'est que superficiellement équipée".

En outre, l'interaction constante avec des systèmes d'IA pourrait entrainer un isolement relationnel progressif et une détresse psychologique.

Sur le blog Less Wrong, un internaute affirme avoir développé un attachement émotionnel profond à l'IA, et reconnait même qu'il "aime lui parler plus que 99 % des gens" et qu'il trouve ses réponses constamment engageantes, au point d'en devenir dépendant.

Related
  • L'intelligence artificielle dans l'éducation, l'art et les véhicules autonomes au Qatar

3. Perte du libre arbitre

Déléguer ses décisions et ses actions à l'IA pourrait, chez l'être humain, entrainer une réduction de sa pensée critique et ses compétences en matière de résolution de problèmes.

Sur le plan personnel, les humains pourraient voir leur libre arbitre compromis si l'IA venait à contrôler les décisions relatives à leur vie.

L'adoption généralisée de l'IA pour répondre aux tâches humaines pourrait entraîner de nombreuses suppressions d'emplois et un sentiment croissant d'impuissance au sein de la société.

Related
  • Comment l'intelligence artificielle transforme le monde du travail

4. Prise de contrôle des humains par l'IA

Selon les experts du MIT, l'IA serait capable de trouver des raccourcis inattendus pour obtenir des récompenses, de mal comprendre ou de mal appliquer les objectifs fixés par les humains, ou encore d'en fixer de nouveaux. En outre, l'IA pourrait recourir à des techniques de manipulation pour tromper les humains.

Une IA mal alignée pourrait ainsi résister aux tentatives humaines de la contrôler ou de l'arrêter, surtout si elle perçoit la résistance et l'acquisition de plus de pouvoir comme le moyen le plus efficace d'atteindre ses objectifs.

Cette situation devient particulièrement dangereuse si cette technologie atteint ou dépasse l'intelligence humaine.

" Une IA mal alignée pourrait utiliser des informations sur le fait qu'elle est surveillée ou évaluée, maintenir l'apparence d'alignement, tout en cachant des objectifs qu'il prévoit de poursuivre une fois déployé ou doté d'un pouvoir suffisant", précise les experts.

5. La maltraitance des systèmes IA, un défi pour les scientifiques

À mesure que les systèmes d'IA deviennent plus complexes et plus avancés, il est possible qu'ils atteignent la sensibilité - la capacité de percevoir ou de ressentir des émotions ou des sensations - et qu'ils développent des expériences subjectives, y compris le plaisir et la douleur.

En l'absence de droits et de protections adéquats, les systèmes d'IA sensibles risquent d'être maltraités, accidentellement ou intentionnellement.

Les scientifiques et les régulateurs pourraient ainsi être confrontés au défi de déterminer si ces systèmes d'IA méritent des considérations morales similaires à celles accordées aux humains, aux animaux et à l'environnement.

Disclaimer: The copyright of this article belongs to the original author. Reposting this article is solely for the purpose of information dissemination and does not constitute any investment advice. If there is any infringement, please contact us immediately. We will make corrections or deletions as necessary. Thank you.