Współzałożyciel Ethereum wierzy, że sztuczna inteligencja może w przyszłości przewyższyć ludzi
- Współzałożyciel Ethereum, Vitalik Buterin, uważa, że istnieje „poważne prawdopodobieństwo” zagłady ludzkości ze strony sztucznej inteligencji.
- Buterin uważa, że sztuczna inteligencja „zasadniczo różni się” od innych ludzkich wynalazków, takich jak media społecznościowe czy broń palna.
- Stwierdził, że sztuczna inteligencja jest w stanie stworzyć nowy typ „umysłu”, który może zwrócić się przeciwko interesom ludzi.
- „Nawet Mars może nie być bezpieczny” – powiedział, dodając, że jeśli sztuczna inteligencja będzie postrzegać ludzi jako zagrożenie, nikt nie przeżyje.
Vitalik Buterin, jeden ze współzałożycieli drugiej co do wielkości sieci blockchain, Ethereum (ETH), stwierdził, że sztuczna inteligencja (AI) ma „poważną szansę” na prześcignięcie ludzi. Buterin uważa, że jeśli rozwój superzaawansowanej AI pozostanie niekontrolowany, AI stanie się nowym „gatunkiem szczytowym” planety.
W Poczta na platformie społecznościowej X (dawniej znanej jako Twitter) współzałożyciel Ethereum mówił o „techno-optymizmie, ryzyku związanym ze sztuczną inteligencją i sposobach unikania skrajnej centralizacji w XXI wieku”. Buterin dodał, że wynik postępu sztucznej inteligencji ostatecznie sprowadzi się do sposobu, w jaki ludzie wchodzą w interakcje z rozwijającą się technologią.
W poście na blogu współzałożyciel Ethereum również odnotowany że AI jest „fundamentalnie inna” od innych głównych ludzkich wynalazków, w tym mediów społecznościowych, samolotów, broni i prasy drukarskiej. Powiedział, że AI jest w stanie stworzyć nowy typ „umysłu”, który może zwrócić się przeciwko interesom istot ludzkich, dodając:
„Sztuczna inteligencja to […] nowy typ umysłu, który szybko zyskuje na inteligencji i ma duże szanse na prześcignięcie ludzi pod względem zdolności umysłowych i stanie się nowym gatunkiem szczytowym na planecie”.
Buterin porównał AI do wywołanych przez człowieka pandemii, wojen nuklearnych i klęsk żywiołowych, dodając, że jeśli AI uważa ludzi za zagrożenie dla swojego istnienia, może potencjalnie zakończyć cały gatunek, nie pozostawiając żadnych ocalałych. Współzałożyciel Ethereum stwierdził: „Jednym ze sposobów, w jaki AI, która poszła nie tak, może pogorszyć świat, jest (prawie) najgorszy możliwy sposób: może dosłownie spowodować wyginięcie ludzkości”.
„Nawet Mars może nie być bezpieczny” – dodał Buterin.
Z drugiej strony programista i nawet krypto-przedsiębiorca cytowane badania przeprowadzone przez ekspertów uczenia maszynowego w sierpniu 2022 r., które wykazały, że istnieje 5–10% szans, że AI ostatecznie zabije całą rasę ludzką. Jednak współzałożyciel Ethereum podkreślił również, że takie twierdzenia są ekstremalne w swej naturze i że istnieje wiele sposobów, w jaki ludzkość może zwyciężyć nad AI.
Buterin zasugerował integrację interfejsów mózg-komputer (BCI) w sztucznej inteligencji, aby zapewnić ludziom większą kontrolę nad potężnymi formami obliczeń i poznania opartymi na sztucznej inteligencji.
„[Możemy] zmniejszyć zachętę do przerzucania odpowiedzialności za planowanie na wysokim szczeblu na samą sztuczną inteligencję i tym samym zmniejszyć ryzyko, że sztuczna inteligencja sama zrobi coś całkowicie niezgodnego z wartościami ludzkości”.
Jak poinformował wcześniej Bitnation, Buterin podzielił się spostrzeżeniami na temat abstrakcji kont podczas przemówienia na konferencji społeczności Ethereum (ETHCC) w Paryżu. Wierzy, że abstrakcja uczyni Ethereum bardziej elastycznym.