đ Le moment Tchernobyl de lâIA
Comme un air de Wuhan en décembre 2019 ?
Il y a 40 ans, dans la nuit du 26 avril 1986, le rĂ©acteur numĂ©ro 4 de la centrale de Tchernobyl (Ukraine) explosait suite Ă un test de sĂ»retĂ©. Les mĂ©canismes d'alerte qui auraient pu l'empĂȘcher avaient Ă©tĂ© dĂ©sactivĂ©s.
RĂ©sultat : le cĆur du rĂ©acteur a brĂ»lĂ© Ă ciel ouvert. Pas glop. âąïž

Les conséquences sur la santé et l'environnement ont été énormes.
Suite à cet incident, le soutien de la population à l'industrie nucléaire s'est effondré : les pays avaient 90% de chances en moins de construire de nouvelles centrales.
Le trauma de la population est réel. On peut le comprendre.

Et sinon, c'est quoi le rapport avec l'IA ?
J'y viens. J'ai récemment déjeuné avec un collÚgue fraßchement revenu de la Silicon Valley. TrÚs connecté avec les principaux décideurs de la Tech californienne, il m'a dit quelque chose qui m'a interpellé :
LĂ -bas, les pontes de la Tech craignent un moment Tchernobyl de l'IA
Un moment Tchernobyl de l'IA ? Je n'avais jamais entendu ces termes. Alors j'ai menĂ© mon enquĂȘte. đ”ïžââïž
Scénarios pas rigolos
Voici ce que je vous propose au menu aujourd'hui :
- On va dĂ©finir ce que signifie un "moment Tchernobyl de l'IA" đ§
- Je vais lister quelques-uns des joyeux scĂ©narios possibles đŹ
- Puis me focaliser sur les vrais risques selon moi âïž
- ... et parler de comment s'y prĂ©parer dans la joie et la bonne humeur đ„ł
Mais si vous voulez juste passer une bonne journĂ©e, vous pouvez aussi fermer cette newsletter et revenir Ă la prochaine. đ
Un moment Tchernobyl pourrait réduire l'adhésion de la population au développement de l'IA
Qu'est-ce qu'un moment Tchernobyl de l'IA ?
Tchernobyl a Ă©tĂ© un moment prĂ©cis oĂč une catastrophe majeure s'est produite.
Quand on dit "moment Tchernobyl de l'IA", cela signifie qu'on pense qu'à un moment précis (on ne sait pas lequel), une catastrophe majeure (on ne sait pas laquelle) pourrait se produire.
Voilà l'idée. Les mots sont forts. Ils font peur. C'est le but.
Est-ce le fait de gens qui ont un agenda cachĂ© Ă promouvoir ? Des vendeurs de combinaisons radioactives de l'IA peut-ĂȘtre ? đ€
Ce sont pourtant les mĂȘmes qui construisent l'IA qui alertent contre ce risque (Sam Altman, Dario Amodei...).
Bien avant la sortie de ChatGPT, c'est un chercheur et philosophe, Nick Bostrom, qui alertait sur les risques de l'IA dans son livre de référence "Superintelligence" que j'ai lu et qui m'a fasciné.
Un livre majeur, intelligent, Ă lire uniquement si vous n'ĂȘtes pas anxieux de nature. Vous ne verrez plus les trombones de la mĂȘme maniĂšre aprĂšs. đ
Les risques de l'IA
Non, ce n'est pas ça le risque. đ
Le problĂšme est justement qu'on ne sait pas Ă quoi pourrait ressembler ce risque (ni mĂȘme s'il se passera quelque chose). On pense en revanche que les risques sont suffisamment tangibles pour en parler.
Voici ma liste des risques, d'aprĂšs ma lecture du livre de Nick Bostrom et mes (trop) nombreuses lectures d'articles en ligne :
- đ§š Un usage militaire de l'IA autonome. Donnez Ă des drones Ă©quipĂ©s d'IA le pouvoir de dĂ©cider seuls oĂč tirer. Ou des robots humanoĂŻdes... depuis peu sur le champ de bataille en Ukraine. Bref, what could possibly go wrong? C'est prĂ©cisĂ©ment le dĂ©saccord majeur entre Anthropic (Claude) et le Pentagone ces derniĂšres semaines.
- âĄïž Des cyberattaques massives sur les infrastructures critiques. Les centrales ne peuvent plus produire d'Ă©nergie (ou en mode "dĂ©gradĂ©"). Les aĂ©roports ne tournent plus, sauf Ă recourir Ă nouveau aux tableaux blancs, comme lors du bug Windows dĂ» Ă une mise Ă jour de Crowdstrike (le plus grand bug informatique involontaire de l'histoire Ă ce jour).
Ces cyberattaques pourraient ĂȘtre coordonnĂ©es par quelqu'un grĂące Ă une IA trĂšs puissante, comme Claude Mythos, le nouveau Claude jugĂ© trop dangereux pour ĂȘtre publiĂ© immĂ©diatement. - đ Un crash financier dĂ» Ă des agents IA. On fait dĂ©jĂ du micro-trading avec des dĂ©cisions prises chaque milliseconde. On dĂ©lĂšgue de plus en plus Ă des IA les dĂ©cisions. Que se passe-t-il quand une IA intelligente joue avec la Bourse ? De toute Ă©vidence, les cotations seraient suspendues, comme c'est dĂ©jĂ arrivĂ© par le passĂ©.
- đ° Un effondrement de la vĂ©ritĂ©. Plus prĂ©cisĂ©ment des manipulations Ă©lectorales. Ca n'a jamais Ă©tĂ© aussi facile Ă faire. Des faux mĂ©dias synthĂ©tiques produits par milliers, ou des faux comptes de rĂ©seaux sociaux, pourraient influencer les Ă©lections, dĂ©clencher des protestations et des violences civiles.
Bon, on vit dĂ©jĂ en plein dedans quand on y rĂ©flĂ©chit bien. - đŠ Production d'armes biologiques facilitĂ© par l'IA. Il n'a jamais Ă©tĂ© aussi simple d'obtenir des informations pour en produire. S'il suffit d'un peu de volontĂ© pour crĂ©er une arme trĂšs dangereuse... les risques peuvent ĂȘtre importants.
On pense souvent qu'il suffit d'une personne malveillante pour utiliser une IA, mais c'est faux. Une IA "hors de contrĂŽle" pourrait, mĂȘme involontairement, crĂ©er des problĂšmes majeurs. Je pense en particulier au crash financier ou aux cyberattaques.
âïž Mon analyse
Bon. Vous ĂȘtes bien silencieux tout Ă coup. đ„ł
Comme les centrales nuclĂ©aires qu'on a pratiquement arrĂȘtĂ© de construire aprĂšs Tchernobyl. đ
Récemment, quelqu'un disait :
Ătre Ă San Francisco aujourd'hui, c'est comme ĂȘtre Ă Wuhan fin 2019. On sait qu'il va se passer quelque chose de gros, mais le monde entier ne le sait pas encore.
Je trouve que cette phrase touchait juste, grĂące Ă son parallĂšle avec le Covid-19.
Maintenant concrÚtement, quelle est la probabilité de ces risques ?