vendredi 7 avril 2023

Faut-il arrêter l'Intelligence Artificielle maintenant ? Devrions-nous tenir compte des avertissements des experts en IA et arrêter MAINTENANT ?

Faut-il arrêter l'Intelligence Artificielle maintenant, avant que celle-ci nous réduise à l'esclavage ou nous fasse disparaître ? 


Filibert : L'Intelligence Artificielle (IA) est un ordinateur capable de prendre des décisions selon des algorithmes mathématiques qui n'ont pas de sentiments, ni d'émotion ! 
Ces algorithmes ne donnent pas de valeur à la Vie et au Vivant ! 
Ainsi, si une IA doit diriger une usine ou la Terre, pour elle l'Homme n'est pas fiable par rapport à un robot qui travaille, il tombe malade, est absent, a besoin de logement, de repos, de nourriture… donc l'IA remplacera l'homme par des robots pour optimiser la production, mais à la fin, il n'y a plus d'homme pour utiliser les produits, car ils auront été supprimés ! 
De plus une expérience, qui a mis deux ordinateurs IA en relation, a démontré qu'à un certain moment les IA ont créé leur propre langage pour communiquer, empêchant les hommes de savoir ce qu'elles se disent et de pouvoir les contrôler ! 
Il semblerait que dans le Cosmos, certaines civilisations ont disparu, remplacées par l'IA et des robots humanoïdes, un peu comme les "petits gris" décrits sur Terre par les Abductés (personnes enlevées par des ETs) ! 


99% de la population n'a aucune idée de ce qu'est réellement l'IA ou de la menace qu'elle représente pour l'humanité. 
Lorsque de vrais experts de l'industrie émettent des avertissements forts pour arrêter le développement de l'IA, le reste du monde ne sait toujours pas pourquoi quiconque devrait les écouter, et ainsi le développement se poursuit sans relâche et sans contrôle. ⁃ Éditeur TN

Devrions-nous tenir compte des avertissements des experts en IA et arrêter maintenant ?
Un expert de premier plan en IA a émis un avertissement sévère sur le potentiel de la technologie d'IA super intelligente à anéantir le monde. 
Eliezer Yudkowsky est un chercheur de premier plan en IA et il affirme que "tout le monde sur terre mourra" si nous n'arrêtons pas le développement de systèmes d'intelligence surhumains. 
L'homme de 43 ans est co-fondateur du Machine Intelligence Research Institute (MIRI) et affirme qu'il sait très bien à quel point "cette technologie est terriblement dangereuse". 
Il craint que s'il s'agit d'une bataille entre humains et surhumains, le résultat soit une "perte totale", écrit-il dans TIME. 
Comme métaphore, dit-il, ce serait comme un "11ème siècle essayant de combattre le 21e siècle". 
Bref, l'homme y perdrait dramatiquement. 
Le 29 mars, les principaux experts d'OpenAI ont soumis une lettre ouverte intitulée "Pause Giant AI Experiments", appelant à une interdiction immédiate de six mois de former de puissants systèmes d'IA. 
La lettre a été signée par le co-fondateur d'Apple Steve Wozniak et Elon Musk, entre autres. 
Cependant, le théoricien américain refuse de signer cette pétition car elle "demande trop peu pour résoudre le problème". 
La menace est si grande qu'il soutient que l'anéantissement de l'IA devrait être considéré comme "une priorité par rapport à la prévention du remplacement complet du nucléaire". 
Il avertit que le résultat le plus probable de la science robotique est que nous créons "une IA qui ne fait pas ce que nous voulons qu'elle fasse, et qui ne se soucie pas de nous ou de la vie sensible en général". 
Nous n'en sommes pas encore là, concède Yudkowsky, pour enseigner à l'IA comment être attentionné parce que nous "ne savons pas comment faire actuellement". 
Au contraire, la dure réalité est que dans l'esprit d'un robot, vous êtes "fait d'atomes qu'il peut utiliser pour autre chose". 
"Si quelqu'un construit une IA trop puissante dans les conditions actuelles, je m'attends à ce que chaque membre de l'espèce humaine et toute vie biologique sur Terre meurent peu de temps après." 
Yudkowsky souligne que "nous n'avons actuellement aucune idée de la façon de déterminer si les systèmes d'IA sont conscients d'eux-mêmes". 
Cela signifie que les scientifiques pourraient créer par inadvertance de "vrais cerveaux numériques conscients", ce qui conduirait à toutes sortes de dilemmes moraux, puisque les êtres conscients ont des droits et ne devraient pas être possédés. 
Notre ignorance, jure-t-il, sera notre perte. 
Puisque les chercheurs ne savent pas s'ils créent une IA confiante, il dit : "Ils n'ont aucune idée de ce qu'ils font, et c'est dangereux, et ils devraient arrêter." 
Yudkowsky affirme qu'il pourrait nous falloir des décennies pour résoudre le problème de la sécurité de l'intelligence surhumaine - cette sécurité consiste à "ne pas littéralement tuer tout le monde" - et pendant ce temps, nous pourrions tous être morts. 
La déclaration centrale de l'expert est la suivante : "Nous ne sommes pas préparés. 
Nous ne sommes pas sur la bonne voie pour être prêts dans un délai raisonnable. 
Il n'y a pas de plan. 
"L'avancement des capacités de l'IA est loin, très en avance sur l'avancement de la compréhension de ce qui se passe dans ces systèmes. 
Si nous le faisons réellement, nous mourrons tous !  
Pour éviter cette catastrophe bouleversante, Yudkowsky pense que le seul moyen est d'arrêter toute formation aux nouvelles technologies d'IA dans le monde, "sans exception, y compris le gouvernement et l'armée". 
Si quelqu'un enfreignait cet accord, l'expert en IA prouve sa sincérité en disant que les gouvernements devraient être prêts à "détruire un centre de données voyou avec une frappe aérienne".
"Quiconque parle de course aux armements est un imbécile. 
Que nous vivions ou mourons tous ensemble n'est pas de la politique, mais un fait naturel.

Source : 
uncut-news.ch le 7 avril 2023 : 
https://uncutnews.ch/sollten-wir-auf-die-warnungen-der-ki-experten-hoeren-und-jetzt-aufhoeren/