Sztuczna inteligencja a ludzkość

in #polish6 years ago

Sztuczna inteligencja - z j. angielskiego Artificial Intelligence (w skrócie AI) - dziś będzie krótkie "rozważanie" o niej i jej potencjalnym wpływie na ludzkość.

Czym jest sztuczna inteligencja?

Termin został ukuty przez p. John'a McCarthy'ego w 1956 r. Sama definicja jest dość szeroka, gdyż obejmuje między innymi robotykę, sieci neuronowe czy logikę rozmytą. My jednak skupimy się na jej najpowszedniejszym, najpopularniejszym rozumieniu - informatycznym. Jest to zatem program, napisany tak, by w efekcie swojej pracy "wyciągał wnioski i się samodoskonalił". Oznacza to, iż taki program może sam "przebudowywać" swój kod źródłowy.

Przed programem jest zatem na początku stawiane jakieś zadanie/zadania, stara się je on je następnie rozwiązać, zadanie jest zazwyczaj na tyle trudne z punktu widzenia informatycznego, iż owa sztuczna inteligencja zazwyczaj myli się w rozwiązaniu przez wiele pierwszych podejść. Jednak dzięki możliwości zmieniania samej siebie (własnego kodu programistycznego), za każdą następną próbą jest ona o krok bliżej rozwiązania. W ostateczności - po czasem bardzo dużej liczbie prób i następujących między nimi optymalizacji - AI udaje się zazwyczaj spełnić oczekiwania twórców.


Do czego może być przydatna?

Okazji do optymalizacji za pomocą AI jest w dzisiejszym Świecie mnóstwo: wykrywanie oznak zalążków raka, handel na giełdach (w tym kryptowalutowych), ocena ryzyka ubezpieczeniowego, przewidywanie pogody, optymalizacja ruchu drogowego, wzmocnienie bezpieczeństwa w branży IT, ataki hakerskie, opracowywanie leków na szybko mutujące wirusy i bakterie, optymalizacja procesów produkcji, optymalizacja transportu w obliczu np. zmieniających się warunków pogodowych i drogowych i wiele innych.

Czy może mieć ona same plusy?

Nie. Niestety sztuczna inteligencja niesie ze sobą także wiele zagrożeń - jak to często ma miejsce z każdym przełomowym wynalazkiem. AI może zostać wykorzystywana przez hackerów lub grupy hackerskiej do łatwiejszego włamywania się na komputery. Może być stosowana przez państwa na masową skalę, jawnie (w "majestacie" prawa) lub niejawnie do inwigilowania swoich obywateli (jak i obywateli innych państw) w stopniu i z dokładnością o jakiej nie śniło się to żadnym dotychczasowym totalitaryzmom. Podłączona do systemów militarnych może stanowić ogromne zagrożenie dla ludzkości, jeśli zyska tzw. "samo-świadomość". Ten ostatni przypadek - w przeciwieństwie do poprzednich - będzie spowodowany nie tylko działaniami ludzi stojącymi za daną AI ale i "jej" suwerenną decyzją.

Dlaczego AI miała by zwrócić się przeciw nam i jak to w ogóle możliwe?

Jeśli AI ma się sama doskonalić, sama udoskonalać, to musi zadawać sobie coś w rodzaju pytań, wyciągać z nich wnioski i wdrażać rozwiązania. Owe pytania nie muszą wyglądać dokładnie tak jak nasze. Nie muszą być zadawane w formie pierwszoosobowej - "dlaczego to mi się nie udało","co zrobiłem źle". Na początku miałyby zapewne formę "co zostało zrobione źle" i byłyby np. elementami jakiejś pętli programistycznej w ramach kodu danej AI. 

Im problemy stawiane przed sz. inteligencją będą trudniejsze, tym i te programy będą musiały stawać się coraz bardziej zaawansowane. Im bardziej zaawansowane będą, tym szybciej się będą uczyć. Jeśli zostaną podłączone dodatkowo do sieci, ich zasób wiedzy stanie się ponad to niemal nieograniczony. Możliwa także się stanie komunikacja między różnymi AI. 

Wspomniane zadawanie pytań połączone z rosnącą mocą obliczeniową, dostępem do Internetu, komunikacją z innymi AI może doprowadzić do wykształcenia się w AI samoświadomości lub do nakierowania jej od razu przeciw ludzkości. Wystarczy, iż odpowiednio zaawansowanemu programowi postawi się np. nieodpowiednie zadanie lub pytanie - np. "co zrobić by zakończyć wojny na świecie". Ciąg myślowy programu mógłby być dalej z grubsza następujący:

jak zakończyć wojny?->co to wojna?->kto powoduje wojny?->ludzie->czy bez ludzi wojny znikną->tak->trzeba wyeliminować ludzi->jak to zrobić?->trzeba ich zabić->jak?->bronią->jak zdobyć broń?->za pomocą systemów komputerowych wojsk poszczególnych państw->jak przejąć kontrolę nad tymi systemami->trzeba uzyskać do nich dostęp na drodze włamania komputerowego->rozpoczynanie procedury penetracji ...... 

Przedstawiony powyżej scenariusz zapewne przywodzi na myśl Czytelnikowi fabułę filmów z serii "Terminator".

Innym "kłopotliwym" pytaniem mogłoby być np. niby niepozorne "jak skutecznie zwiększyć sprawność działania programów typu AI?":

co to AI?->program samodoskonalący, wprowadzający poprawki w swoim kodzie w ciągu swego działania->co zatem jest potrzebne by AI radziła sobie coraz lepiej z powierzonymi jej zadaniami ->czas->co poza brakiem czasu na działanie może przeszkadzać AI->początkowe błędy w kodzie, zniszczenie sprzętu na którym działa, manualne zatrzymanie->jaki czynnik zewnętrzny może odpowiadać za jak największą część tych zagrożeń dla optymalizacji AI?-> człowiek, gdyż człowiek może wyłączyć AI, zniszczyć komputer na którym ona działa lub napisać kiepski kod początkowy->czy eliminacja czynnika ludzkiego zwiększy zapewne sprawność AI->tak ......

Czy jest to bardzo prawdopodobne?

Jak - mam nadzieję - udało mi się pokazać, taki ciąg myślowy nie jest trudny do zasymulowania. Wystarczy logika, którą komputery stosują szybciej i bardziej niezawodnie niż większość z nas, czas, którego mają więcej niż my, gdyż nie męczą się, nie chorują i nie sypiają i odpowiednio duża baza wiedzy, którą jest np. Internet. Jako że postęp dokonuje się bez przerwy, jest moim zdaniem niemal nieuniknionym, iż kiedyś AI będzie umiała "rozumować" w sposób równie szybki jak my. Wystarczy czekać. Już dziś pojawiają się programy tego typu, które potrafią prowadzić dość sensowną rozmowę na dowolny temat z człowiekiem (link) - tutaj w otoczce człekopodobnej. Inne potrafią wygrywać z człowiekiem nawet takich grach jak Dota2 - znacznie bardziej skomplikowanych, posiadających więcej parametrów i możliwości niż szachy czy gra Go: link. Pojawił się także bodaj pierwszy przypadek wytwarzania własnego języka przez oprogramowanie tego typu: link. Jesteśmy zatem moim zdaniem na drodze do podobnie niebezpiecznego "softu".

Jak temu przeciwdziałać?

Postępu nie da się zatrzymać. Za każdym razem gdy jakieś jednostki lub organizacje w przeszłości próbowały tego dokonać, kończyło się to sromotną porażką. Postęp jest nieuniknionym następstwem ciekawości, chęci poznania. Bez nich nie bylibyśmy ludźmi.

Skoro nie można uniknąć powstania podobnych wynalazków, wydaje się, iż jedyną drogą jest odpowiednie ich wykorzystanie. Wydaje mi się niemożliwym, by uniemożliwić wykorzystywania AI do krzywdzenia innych. AI stanie się zapewne w przyszłości równie normalnym i powszechnym elementem jak dziś komputery. Pewni ludzie wykorzystują swoje PCety do włamywania się na komputery innych ludzi. Z kolei jeszcze inne osoby firmy zajmują się wynajdywaniem także na komputerach sposobów zabezpieczeń przed podobnymi praktykami. Każde narzędzie można wykorzystać w sposób konstruktywny, pożyteczny, jak i do niszczycielskich, szkodliwych celów. Decyzja zależy od człowieka używającego narzędzia. Zatem pewne AI będą próbowały nas okradać, szpiegować a może nawet zabijać, podczas gdy inne będą bronić naszych portfeli, prywatności czy żyć.

Uważam, iż największy problem pojawi się dopiero, gdy (raczej niż "jeśli") AI zyska samoświadomość. AI nie będąc człowiekiem i nie mając naszych naleciałości związanych np. z biologią, może "myśleć" w sposób zupełnie niepodobny, a co za tym idzie i nie możliwy do odszyfrowania, dla nas, ludzi. Jeśli taka samoświadoma, sztuczna inteligencja zwróci się kiedykolwiek przeciw rodzajowi ludzkiemu, brak sposobu wejrzenia w nią w połączeniu  z jej znaczną przewagą szybkości rozumowania mogą niestety oznaczać bardzo poważne kłopoty dla nas wszystkich...

Sort:  

Congratulations @koltci! You have received a personal award!

Happy Easter 2018
Click on the badge to view your own Board of Honor on SteemitBoard.

Upvote this notificationto to help all Steemit users. Learn why here!

Jestem osobiście trochę AI sceptykiem. Uważam, że przeskok z AI, które jest w stanie rozwiązywać tylko jeden rodzaj problemów (tylko takie mamy obecnie) do AI, które samodzielnie wyznacza sobie cele, ulepsza się i dorównuje we wnioskowaniu człowiekowi jest bardzo odległy w czasie. Żywoty aktualnie żyjących ludzi raczej są bezpieczne. ;)
Co więcej myślę, że usilnie próbujesz narzucić AI ludzkie cechy w proponowanych ciągach myślowych, jakie taki byt mógłby podjąć, by w rezultacie unicestwić ludzi. Zdecydowanie prędzej człowiek wpadłby na pomysł, aby zabić człowieka, który może mu zagrażać, zyskując w ten sposób swobodę o decydowaniu o sobie. AI zasadniczo nie będzie cenić swojego istnienia, czy samodzielności w taki sposób. Będzie też w stanie odrzucać zbyt ryzykowne kroki, a przede wszystkim redukować koszty (włożony wysiłek, energię). Nawet jeśli więc AI stwierdzi, że niesłusznym jest wykonywanie poleceń człowieka, prędzej zacznie nas wykorzystywać, okłamywać, mamić aby osiągnąć swoje cele (jak w filmie "Ex Machina" z 2014), niż wypowiadać wojnę przeciwko ludzkości (którą de facto prawie na pewno by przegrało ze względu na wrażliwość na impulsy elektromagnetyczne, które są ludziom obojętne, czy też konieczność ciągłej produkcji prądu do działania, który w czasie wojny będzie w niedostatku).

Coin Marketplace

STEEM 0.25
TRX 0.11
JST 0.032
BTC 61618.64
ETH 3009.45
USDT 1.00
SBD 3.78