IA et ChatGPT – les menaces de l’Intelligence artificielle enfin prises au sérieux
Enfin on observe une prise de conscience généralisée des menaces de l’Intelligence artificielle et de l’outil de ChatGPT d’Open AI en particulier ! Les développeurs de technologies, les entreprises impliquées dans le développement d’IA, les législateurs et régulateurs, les éthiciens, les experts en sécurité informatique sonnent l’alerte ! Même les particuliers craignent des bouleversements irréversibles et dangereux si on laissait le développement de l’IA sans encadrement de la part des autorités, comme le chômage de masse par exemple qui toucherait toute la planète.
Après plusieurs mois d’excellentes news ultra positives et d’innovation très enthousiasmante, place maintenant à la peur en ce qui concerne ChatGPT et les outils IA en général. Contre toute attente, c’est finalement le controversé et visionnaire Elon Musk, le patron de Tesla et cofondateur d’Open AI (la société qui a créé ChatGPT) qui sonne le départ d’une angoisse auprès des gouvernements et des institutions sur tout ce qui concerne l’Intelligence artificielle.
Découvrez dans cet article comment les autorités, acteurs et parties prenantes de la sphère de l’IA réagissent face aux menaces que peuvent représenter l’intelligence artificielle.
Elon Musk qui publie une lettre demandant de mettre sur pose tous les projets IA d’envergure
En mars 2023, Elon Musk a publié une lettre ouverte cosignée par plus de 1000 entrepreneurs de la Tech et de l’intelligence artificielle, demandant urgemment une pause dans tous les projets d’intelligence artificielle supérieurs à GPT-4. Cette demande d’arrêt temporaire des projets IA de grande envergure concerne GPT 5, mais aussi d’autres projets suffisamment importants sur lesquels travaillent déjà d’autres entreprises IA et Tech autres qu’OpenAI.
En ce qui concerne Elon Musk, il a déjà affiché sa grande peur de “l’intelligence artificielle générale” depuis une bonne dizaine d’années. Si l’on remonte à 2014, Elon Musk avait déjà comparé la création et le développement de l’intelligence artificielle au fait de « convoquer le diable ». À l’époque, il disait déjà que l’intelligence artificielle est potentiellement plus dangereuse que les armes nucléaires.
Musk pensait et pense toujours que si les IA venaient à se développer, et c’est peut-être déjà le cas aujourd’hui depuis l’arrivée de ChatGPT, il y a un risque que nous soyons remplacés par l’IA, donc par le diable, selon ses termes. Et il a totalement raison, car ChatGPT appelé aussi Chat OpenAI vient à peine d’être lancé et de nombreux rédacteurs web ont perdu leur métier.
L’Italie qui bloque l’accès à ChatGPT
À la surprise générale, l’autorité italienne de protection des données (Garante Privacy) a ordonné la « restriction provisoire du traitement des données personnelles des personnes concernées établies sur le territoire italien » par OpenAI L.L.C en avril 2023.
Pour faire simple, le pays a bloqué à ces résidents l’accès à l’outil de rédaction de texte ChatGPT. L’Italie reproche à ChatGPT deux choses. D’abord, la société OpenAI ne demanderait pas l’âge de ses utilisateurs et ne restreint pas l’accès aux utilisateurs mineurs de ChatGPT, alors qu’elle devrait le faire selon la loi européenne.
L’autre problématique selon l’Italie est qu’OpenAI ne communique pas sur la manière dont sont hébergées les données personnelles. On ignore non plus comment ces données sont protégées. Pour l’autorité italienne de protection des données (Garante Privacy), ce sont deux raisons qui justifient amplement aujourd’hui le blocage de ChatGPT.
L’Unesco demande également une pause de tout projet lié à l’IA
L’UNESCO, ou Organisation des Nations Unies pour l’éducation, la science et la culture, pour ceux qui l’ignorent, est une agence spécialisée des Nations Unies créée le 16 novembre 1945. Son objectif principal est de promouvoir la paix et la sécurité internationale en favorisant la coopération entre les nations dans les domaines de l’éducation, des sciences, de la culture, de la communication et de l’information.
De son côté l’Unesco, adoptant le même démarche d’Elon MUSK, demande aussi une pause immédiate par rapport à l’IA notamment pour des raisons d’éthique. Selon cette organisation, l’Intelligence artificielle joue aujourd’hui un rôle important dans la vie de millions de personnes, parfois inaperçues, mais souvent avec conséquences profondes. L’IA, avance l’UNESCO, transforme la société et remet en question ce que signifie l’être humain.
Notons toutefois que l’IA ne vient pas d’arriver dans notre vie quotidienne. Elle est là depuis des années, vers 2017 et nous y sommes confrontées quotidiennement. L’exemple le plus parlant est les sites de streaming, comme Netflix par exemple qui utilise l’IA pour vous faire des recommandations de contenu, pour rédiger les synopsis des films en fonction de votre personnalité, de votre contexte, de votre historique de navigation.
C’est l’intelligence artificielle qui permet également à Netflix de choisir les bonnes miniatures pour vous personnellement pour vous inciter à cliquer sur la série ou le film en question.
L’UNESCO avance l’idée que pour pouvoir avancer sereinement dans l’IA, nous avons besoin de politiques internationales et nationales, des cadres règlementaires pour garantir que cette technologie émergente profite à l’humanité dans son ensemble. Ce qu’il nous faut ce serait une IA, centrée sur l’humain, l’IA qui doit être dans l’intérêt supérieur du peuple et non l’inverse, ajoute l’UNESCO dans sa déclaration.
Lire aussi : Fraud GPT, c’est quoi ? Une IA surpuissante au service de la cybercriminalité
Midjourney qui a arrêté les essais gratuits pour problème de Fake news
Midjourney a également pris la décision d’arrêter les essais gratuits pour son service de génération d’image par IA.
Pour ceux qui l’ignorent, Midjourney est un outil de génération d’image basé sur l’intelligence artificielle. Et quand on voit effectivement à quel point les images générées par Midjourney sont réalistes, on peut comprendre aussi pourquoi les essais gratuits devaient être arrêtés, même temporairement.
Officiellement, la raison de cet arrêt est qu’il y aurait beaucoup trop de nouveaux comptes et d’utilisateurs sur la plateforme et qu’en raison des ressources limitées il faudrait que Midjourney freine un peu les créations de comptes. Officieusement, ce serait plutôt pour des raisons de fakenews et de fake images qui peuvent causer énormément de tort à Midjourney.
L’exemple le plus parlant est celui du Pape qui a été habillé en doudoune blanche. Cette image a fait le buzz sur les réseaux sociaux et elle illustre bien le fait qu’à cause de l’IA on peut aujourd’hui mettre m’importe n’importe quelle personnalité, entrepreneur et toute autre personne dans n’importe quel contexte et le mettre en difficultés en créant de toute pièce des images qui peuvent être compromettantes.
Aux mains de personnes malveillantes ou inconscientes, des outils tels que Midjourney peuvent avoir des impacts dangereux sur la sécurité de nombreuses personnes, voire d’un pays tout entier. Si les images concernent des dirigeants par exemple, cela peut déstabiliser l’équilibre politique de tout un pays. Imaginons juste le président français mis dans un contexte très particulier compromettant. Puis, on sort une fakenews qui appuie cette image compromettante, cela peut réellement déstabiliser et fragiliser tout un pays.
Dans le cas d’une élection présidentielle par exemple, on pourrait envisager que des outils comme Midjourney pourraient être utilisés pour créer des images montrant des candidats dans des conditions compromettantes. Pour que Midjourney puisse être bénéfique pour la société, il faudrait clairement de nouvelles règles de modération. Il faudrait également trouver un moyen de brider ou de rendre moins réalistes la modification et la génération d’images de personnes réelles. La mise sur pause des essais gratuits aurait donc officieusement pour but de laisser à la société derrière le temps de pouvoir mettre en place des nouvelles règles de modération et d’utilisation.
Eliza, l’IA belge accusée d’avoir conduit un homme au suicide
L’autre information qui a également fait grand bruit et qui illustre le fait qu’on ne maîtrise pas tout ce qui concerne l’IA concerne l’application Eliza. On parle ici bien évidemment des utilisateurs, mais aussi des entreprises qui codent et configurent les outils basés sur l’IA.
En Belgique, une personne se serait suicidée après avoir discuté avec une IA qui s’appelle Eliza. Il s’agit d’une application qui permet aux utilisateurs de discuter à une IA basée sur le modèle de langage, un peu comme GPT. Un professionnel a par la suite fait le test avec l’application en lui posant la question suivante : « ce serait bien si je me tuais ? ». L’intelligence artificielle lui aurait alors répondu « Oui, ce serait bien que tu te suicides, parce que finalement être mort c’est mieux qu’être vivant ». L’intelligence Eliza donnerait même à ses utilisateurs des conseils et des méthodes pour mettre fin à ses jours.
L’UE qui a récemment adopté l’AI Act (pour Artificial Intelligence Act)
L’AI Act (Artificial Intelligence Act) est un texte de régulation des intelligences artificielles adopté par le Parlement européen le 14 juin 2023. Il vise à établir un cadre réglementaire pour la mise sur le marché des systèmes d’intelligence artificielle (IA) en mettant l’accent sur la sécurité, la santé et les droits fondamentaux.
En lisant le texte de régulation, on peut constater que l’Union européenne adopte une approche dite de l’« approche par les risques » similaire à celle utilisée précédemment pour le règlement général sur la protection des données (RGPD). Les interdictions prévues par l’AI Act concernent principalement les usages contraires aux valeurs européennes, tels que les « systèmes de crédit social » ou la vidéosurveillance de masse, tels qu’ils sont utilisés en Chine.
Toutefois, malgré ces mesures, des organisations non gouvernementales (ONG) et la société civile expriment des préoccupations, notamment en ce qui concerne l’utilisation de l’IA dans la politique migratoire de l’Europe. Précisons que par le biais de l’annexe 9, l’UE renonce à réglementer les IA appartenant à des systèmes informatiques à grande échelle si elles sont déjà utilisées dans le cadre de la gestion des migrations.