techn

logies

techn

logies

techn

logies

14 mai 2023

IA GÉNÉRATIVEÉquilibrer le potentiel et les dangers de l'IA : un appel urgent à la réflexion

IA GÉNÉRATIVEÉquilibrer le potentiel et les dangers de l'IA : un appel urgent à la réflexion

Pour équilibrer certains posts qui pourraient être considérés comme prosélytes, il est bon de dire que, oui des dangers réels sont clairement identifiés dans le développement des IA génératives.

L'intelligence artificielle (IA), en particulier générative, est très prometteuse pour résoudre des demandes complexes et améliorer nos vies, sinon une part du business des entreprises. Mais elle comporte également des dangers. Dans un monde où la technologie est souvent détournée à mauvais escient, il est essentiel de reconnaître les risques très tôt.

L'administration américaine au plus haut niveau (Kamala Harris, Vice Présidente) a exprimé certaines de ses préoccupations les plus pressantes, en soulignant l'importance de l'éducation pour préserver notre libre arbitre.

Etaient conviés Sam Altman, Dario Amodei, Satya Nadella, and Sundar Pichai (Microsoft, Google, OpenAI, Anthropic, ...).

Ce qui choque en comparaison de la France et de l’Europe, c’est la rapidité avec laquelle des mesures simples ont été prises :

• Un financement de 140 millions de dollars accordé à sept nouveaux instituts nationaux de recherche sur l'IA, ce qui portera à 25 le nombre total d'instituts dans le pays.

• Un hacking organisé, lors d'un grand événement de pirates informatiques en août, auquel participeront les acteurs des technologiques IA, permettra d'évaluer dans quelle mesure les systèmes d'IA générative existants satisfont à la charte des droits de l'IA de l'administration Biden (il s’agit notamment de leur capacité à ne pas être détournées).

• Cet été, l'Office of Management and Budget publiera un projet d'orientation politique sur l'utilisation des systèmes d'IA par le gouvernement fédéral, qui sera soumis aux commentaires du public.

Ces mesures répondent à cinq craintes, assez entendables, sur l’IA

Malgré le potentiel positif de l’IA à long terme (peut être autant que l’électricité), des experts ont exprimé des inquiétudes quant aux dommages qui pourraient en résulter à beaucoup plus court terme :

• 1 • Les cyberattaques explosent : Avec la capacité de générer des codes malveillants fonctionnels, l'IA pourrait conduire à des cyberattaques plus nombreuses, plus larges et de plus en plus diversifiées donc plus dures à anticiper. Certains diraient que dans ce cas, il suffit d’une IA qui réplique à une IA … Skynet et consorts.

• 2 • Les escroqueries basiques vont s'intensifier : Les systèmes d'hameçonnage et de fraude assistés par l'IA peuvent être des plus sophistiqués (et écrire des messages plus plausibles encore), utilisant les réseaux sociaux et les informations personnelles pour ressembler à de véritables appels à l'aide de la part d'amis et de membres de la famille. En B2B également, les "arnaques au Président » risquent d’être plus raffinées.

• 3 • La désinformation en ligne va être plus délicate à contrôler : La propagande et les attaques partisanes optimisées par des algorithmes et diffusées en masse de sorte que le public ait encore plus de mal à distinguer la réalité de la fiction. La « scénarisation » de propagation de fausses informations à l’aide d’agents (agresseur->défenseur->neutre->partisan->opposant) est d’ores et déjà possible (Auto-GPT).

• 4 • La dérive de la surveillance : L'IA renforce les capacités de traçage des entreprises et des gouvernements (textes, images, vidéos). La capacité de modélisation des IA permet de prédire des comportements à grande échelle avec une attribution personnalisée, ce qui pourrait inciter à encourager le conformisme et à pénaliser d’avance la dissidence. "Black Mirror sort de ce corps".

• 5 • Les hommes forts des régimes en profitent certainement déjà : La collecte massive de données numériques donne aux tyrans (à l’abri du RGPD) des moyens nouveaux d'anticiper et de désamorcer la colère sociale et l’opposition des urnes. En orientant le débat public par des faits médiatiques bien calibrés et en muselant la liberté d’expression en ligne par une armée de contre-bots, la force de la répétition de messages très bien rédigés et ciblés est encore plus dangereuse. Cambridge Analytica-GPT.

Le salut de l'éducation et du temps de réflexion

Alors que l'IA va continuer de progresser, il est essentiel pour nous de réfléchir aux conséquences potentielles d’une acceptation tacite de « tout ». Le salut tient peut-être au temps : prendre celui de mettre en pause l’instantanéité de nos interactions numériques.

S’informer, "écran fermé" et à nouveau discuter physiquement avec les autres peut être salutaire.

Quand on considère les hypothèses de résultat aux prochaines élections présidentielles en France, on se doit dès maintenant de systématiquement douter en présence de ces IA. On doit prendre le temps, plus souvent, d'une réflexion personnelle profonde avec d’autres vrais humain.es.

Envie d'en savoir plus ?

Un avis à partager, un projet, une question...