Le co-fondateur d'Ethereum pense que l'IA pourrait surpasser les humains à l'avenir
- Le cofondateur d’Ethereum, Vitalik Buterin, estime qu’il existe une « probabilité sérieuse » que l’IA mette fin à l’humanité.
- Buterin estime que l’IA est « fondamentalement différente » des autres inventions humaines comme les médias sociaux et les armes à feu.
- Il a déclaré que l’IA est capable de créer un nouveau type d’« esprit » qui peut se retourner contre les intérêts des humains.
- « Même Mars n’est peut-être pas sûr », a-t-il déclaré, tout en ajoutant que si l’IA considère les humains comme des menaces, personne ne survivra.
Vitalik Buterin, l’un des cofondateurs du deuxième plus grand réseau blockchain, Ethereum (ETH), a déclaré que l’intelligence artificielle (IA) avait de « sérieuses chances » de surpasser les êtres humains. Buterin estime que si la croissance de l’IA ultra-avancée n’est pas maîtrisée, l’IA deviendra la nouvelle « espèce dominante » de la planète.
Dans un Publier Sur la plateforme de médias sociaux X (anciennement connue sous le nom de Twitter), le cofondateur d'Ethereum a parlé de « techno-optimisme, de risques liés à l'IA et de moyens d'éviter une centralisation extrême au 21e siècle ». Buterin a ajouté que le résultat des progrès de l'IA se résumera finalement à la façon dont les humains interagissent avec cette technologie en plein essor.
Dans un article de blog, le co-fondateur d'Ethereum a également c'est noté Selon lui, l’IA est « fondamentalement différente » des autres grandes inventions humaines, notamment les réseaux sociaux, les avions, les armes à feu et l’imprimerie. Il a déclaré que l’IA est capable de créer un nouveau type d’« esprit » qui peut se retourner contre les intérêts des êtres humains, tout en ajoutant :
« L’IA est […] un nouveau type d’esprit qui gagne rapidement en intelligence, et elle a de sérieuses chances de dépasser les facultés mentales des humains et de devenir la nouvelle espèce dominante sur la planète. »
Buterin a comparé l’IA aux pandémies, aux guerres nucléaires et aux catastrophes naturelles provoquées par l’homme, ajoutant que si l’IA considère les êtres humains comme une menace pour sa propre existence, elle peut potentiellement mettre fin à l’espèce entière sans laisser de survivants. Le cofondateur d’Ethereum a déclaré : « L’une des façons dont l’IA qui tourne mal pourrait aggraver le monde est (presque) la pire des façons possibles : elle pourrait littéralement provoquer l’extinction de l’humanité. »
« Même Mars n’est peut-être pas sûre », a ajouté Buterin.
D’un autre côté, le programmeur et entrepreneur en cryptographie même cité Des recherches menées par des experts en apprentissage automatique en août 2022 ont conclu qu'il y avait 5 à 10% de chances que l'IA finisse par tuer toute la race humaine. Cependant, le cofondateur d'Ethereum a également souligné que de telles affirmations sont de nature extrême et qu'il existe de multiples façons pour l'humanité de l'emporter sur l'IA.
Buterin a suggéré l'intégration d'interfaces cerveau-ordinateur (BCI) dans l'IA pour offrir aux humains plus de contrôle sur les formes puissantes de calcul et de cognition basées sur l'IA.
« Nous [pouvons] réduire l’incitation à déléguer la responsabilité de la planification de haut niveau à l’IA elle-même et ainsi réduire le risque que l’IA fasse d’elle-même quelque chose qui ne soit absolument pas conforme aux valeurs de l’humanité. »
Comme indiqué précédemment par Bitnation, Buterin a partagé son point de vue sur l'abstraction des comptes en s'exprimant à l'Ethereum Community Conference (ETHCC) à Paris. Il pense que l’abstraction rendra Ethereum plus flexible.