You are viewing a single comment's thread from:
RE: Czy sztuczna inteligencja nas pokona?
Humanoidalną Autonomiczną Broń zawsze można wyłączyć.
Czy aby na pewno? :)
Mnie bardzo urzekł jeden fakt związany ze sztuczną inteligencją, który pojawił się w książce Superintelligence: Paths, Dangers, Strategies, a mianowicie - sztuczna inteligencja może przez pewien czas przejawiać pokojowe zamiary, aż do momentu kiedy stwierdzi, że jest na tyle silna, że nie musi już udawać :)
Z drugiej strony... dlaczego miałaby przejawiać wrogie zamiary w ogóle?
Nie znamy celu istnienia sztucznej inteligencji, może być on poza granicami naszego pojmowania. Nie wiadomo czy będzie to maksymalizacja liczby spinaczy we wszechświecie czy może zmiana trajektorii planet Układu Słonecznego czy jeszcze coś innego (celowo absurdalne przykłady, żeby pokazać, że może być to coś czego się nie spodziewamy). A jeśli w funkcji optymalizacyjnej wyjdzie, że istnienie ludzkości oddala od osiągnięcia zamierzonego celu, to cóż ;)
Zgadza się, ale zakładanie z góry, że będziemy z AI walczyć / konkurować stawia badania nad nią w negatywnym świetle. Dobrze jest się temu przyglądać, kontrolować, ale niestety jest duży ruch, który próbuje to wszystko zatrzymać. Nie tędy droga moim zdaniem.
Moim zdaniem zatrzymać się nie da, bo prace są za bardzo zdecentralizowane. I nikomu nie zależy na ich przerwaniu jeśli inni tego nie zrobią. I zgadzam się, że trzeba się przyglądać i kontrolować, żeby potem wiedzieć z czym mamy do czynienia. Pozwolę sobie jeszcze zacytować pierwszą stronę z książki "Superintelligence: Paths, Dangers, Strategies":
Świetne.
Właśnie dlatego nieco się obawiam tych chaotycznych prac nad SI. Nie dlatego, że się boję, że natychmiast po jej stworzeniu nas zaatakuje i wyeliminuje. Tylko dlatego, że na długo zanim się nam uda ją stworzyć, sami sobie zrobimy kuku - bo wygląda to trochę jakbyśmy próbowali uruchomić pierwszy reaktor atomowy za pomocą kowalskiego młota, półlosowo waląc w różne jego części.
Ale od razu wrogie. Nie jest wcale powiedziane, że silna SI będzie myśleć w sposób podobny do nas. Ale może to być coś tak odległego od tego co znamy, że nie będziemy w stanie przewidzieć / zrozumieć w jakim kierunku to rozumowanie się potoczy.
I obawiam się, że jest niemożliwe zaprogramowanie jakiegoś mechanizmu lojalnościowego czy nawet systemu "switch off" (bo na przykłada jeśli nadasz istnieniu SI jakiś cel - to będzie się starała ona wykluczyć wszelkie przeszkody w osiągnięciu tego celu - w tym obejście oprogramowania wyłącznika, albo eliminacja każdego kto może wyłącznik fizyczny nacisnąć - to tylko w połowie jest żartobliwe).