mardi 25 avril 2023

L’intelligence Artificielle anéantira-t-elle l’Humanité ?

"L’Intelligence Artificielle anéantira l’humanité d’ici 2030 !", c’est le pari de l’Économiste Bryan Caplan, de l’Université George Mason en Virginie ! 


"…À cause de l’intelligence artificielle, nous serons rayés de la surface de la Terre le 1er janvier 2030 (…) une fois que l’IA deviendra suffisamment intelligente pour augmenter sa propre intelligence, elle passera à l’intelligence infinie en un instant et c’en sera fini de nous !" 
C’est le pari que l’économiste Bryan Caplan, de l’université George Mason en Virginie, a fait avec Eliezer Yudkowsky, qu’il a désigné comme l’homme ayant le point de vue le plus pessimiste et le plus extrémiste sur l’IA, selon une interview accordée au journal britannique The Guardian. 
Caplan est largement reconnu comme l’homme qui est devenu l’homme qui a eu raison dans ses différents paris sur différents sujets d’intérêt général. 
Par exemple, il a vu juste dans ses prédictions sur les chances électorales de Donald Trump en 2016 et mise même sur des prédictions qu’il juge exagérées. 
Pourquoi affirme-t-il que l’IA va anéantir l’humanité ? 
Caplan a parié 500 dollars que l’intelligence artificielle intégrée à ChatGPT (un système d’IA capable de répondre à tout) n’était pas aussi intelligente qu’on le croyait et qu’elle ne pourrait pas réussir l’examen de mi-parcours de 2022 de sa classe de licence. 
Bien que ChatGPT original ait obtenu un D à son examen, il a parié "qu'aucune IA ne pourrait obtenir des A à 5 de mes 6 examens d’ici janvier 2029 ?" 


Cependant, il a noté dans son blog qu’il a été surpris par la nouvelle version du système, GPT-4, qui a obtenu un A quelques mois plus tard, avec un score de 73/100. 
S’il s’agissait d’un étudiant, il aurait obtenu la quatrième meilleure note de la classe.
Cela étant, Caplan estime que les chances de gagner sont minces. 
Pour lui, l’avenir de l’IA est passionnant. 
"Tout progrès est mauvais pour quelqu’un (…) 
La règle générale est que tout ce qui augmente la production humaine est bon pour le niveau de vie humain", a-t-il déclaré aux médias. 

Son autre pari ! 
Caplan a fait un pari avec Yudkowsky sur l’IA. 
Il pense qu’elle fonctionnera d’abord, puis qu’elle nous tuera. 
"Si vous vous demandez comment il est possible de faire un tel pari, alors que vous êtes l’une des personnes qui seront éliminées, la réponse est que je l’ai payé d’avance. 
Je lui ai donné l’argent à l’avance et ensuite, si la fin du monde n’arrive pas, il me le devra !" 


Modestement, Caplan souligne que les paris qui l’intéressent sont ceux où quelqu’un semble faire des affirmations exagérées, "prétendant avoir beaucoup plus confiance en l’avenir que je ne le pense". 
Jusqu’à présent, cette méthode lui a si bien réussi que sur les 23 paris placés, il les a tous remportés. 
"J’ai eu beaucoup d’autres cas de personnes qui me disaient à quel point l’IA était géniale, puis j’ai vérifié par moi-même et il est clair qu’ils exagéraient beaucoup", a-t-il déclaré au journal. 
Il souligne ensuite que GPT-4 a progressé beaucoup plus vite qu’il ne l’avait prévu. 
Je pense que cela signifie que les effets économiques seront beaucoup plus importants que prévu.
"Comme je m’attendais à très peu d’effets, ils pourraient être dix fois plus importants que ce que je pensais et ne pas être énormes pour autant.