Sztuczna inteligencja i mój światopogląd

in #polish6 years ago (edited)




Czy bylibyśmy w stanie spędzić jeden zwykły, roboczy dzień bez korzystania z silników, pomp, wind i innych cudów pierwszej rewolucji przemysłowej? Zamiast użycia kranu przez minutę - dwie godziny wyprawy nad najbliższe jezioro i mozolne dźwiganie wiader z wodą tylko po to, aby się umyć, ogolić i napić kawy? Zamiast 25 minut dojazdu metrem do biura - wstawanie o trzeciej w nocy i pięć godzin marszu na piechotę?


Nonsens. Dałoby się to co prawda zrobić, ale o jakichkolwiek dobrych wynikach w pracy, a nawet o jej utrzymaniu - moglibyśmy zapomnieć….


Od silników do algorytmów


O ile pierwsza rewolucja oduczyła nas używania mięśni, zastępując je potężnymi maszynami, o tyle obecna epoka informatyczna obiecuje podobne wsparcie dla naszych umysłów. Być może już za kilkanaście lat wybór kierunku studiów, planowanie letnich wakacji czy kupowanie mieszkania bez pomocy specjalistycznych sztucznych inteligencji (SI) - będzie nam się wydawać równie śmiesznym i prawie niewykonalnym zajęciem, jak próba obycia się bez metra i wodociągów?


Póki co w naszych opowieściach dominuje jeszcze pierwszy szok rozpoczynającej się nowej ery. Wszędzie dezorientacja, chaotyczne próby opisania świata z nowego punktu widzenia. Bywa bardzo rewolucyjnie:


"Tak wiele z naszych gorących debat - od socjalizmu do kryptowalut, tożsamości seksualnej, poliamorii - można bardzo prosto opisać. - twierdzi Caitlin Johnstone. - Ludzie zdają sobie sprawę, że wszystkie nasze życiowe zasady zostały ułożone przez dawno zmarłych ludzi na długo przedtem, zanim my pojawiliśmy się na świecie. Możemy te zasady zmienić!"


Równie często spotykam się z odwrotną reakcją: tradycyjne sposoby życia i budowania społeczeństw powinny być właśnie chronione i zabezpieczane. Nasz @rolsonpatison przedstawił ostatnio obronę “jednolitości etnicznej” i “prawa do strachu” przed cudzoziemcami. (Mamy zresztą na polish cały tag #reakcja).


Gniew i zgiełk w sieci


Zarówno eksperymenty z socjalizmem, jak i obrona jednolitości etnicznej spotykają się z przeciwnej strony barykady z coraz powszechniejszym zarzutem: ekstremizmu. Prof. Zejnef Tufekci uważa, że zarówno skrajność różnych stanowisk, jak i emocjonalność odpowiedzi nie są przypadkowe. Wiążą się z ewolucją, jaką przeszły media społeczne od optymistycznych czasów “Arabskiej Wiosny” i wyboru prezydenta Obamy. 


Egipscy generałowie, rosyjski prezydent Putin i inni autorytarni przywódcy na całym świecie - błyskawicznie “odebrali” opozycji Facebooka, Twitter i Youtube. Nie musieli odcinać internetu ani stosować przemocy. Skupili się na wzmacnianiu wszelkich ekstremizmów i nakręcaniu wszelkich konfliktów, co skutecznie zagłuszyło propozycje zmian, reform.


“Opozycjoniści mogą dziś łatwiej uniknąć cenzury - wyjaśnia prof. Tufekci. - Sfera publiczna, do jakiej docierają, jest jednak często pełna zgiełku i zbyt ich dezorientuje, aby mogli cokolwiek osiągnąć. Ci, którzy chcą coś poprawić w społeczeństwie muszą jednocześnie przekonać ludzi, że coś na świecie potrzebuje zmiany i że istnieje konstruktywna, rozsądna droga, aby taką zmianę wprowadzić. Rządy i ekstremiści muszą często tylko siać zamieszanie i osłabiać społeczne zaufanie, aż wszyscy są zbyt rozbici i sparaliżowani, aby cokolwiek zdziałać”.


“Władcy zawsze się uczą - ostrzega prof. Tufekci. - Potężne narzędzia władzy zawsze trafiają w ich ręce”. Nic dziwnego, że podobnie jak kiedyś luddyści uznali pierwsze maszyny za zagrożenie, tak samo dzisiaj lęk przed epoką informatyczną wydaje się rosnąć niemal z tygodnia na tydzień.


Asystująca SI


Być może rzeczywiście media społeczne w obecnej postaci są już stracone dla szerszych społeczności, zamienione w jeszcze jeden środek kontroli wyobraźni społecznej przez lokalne i globalne elity. Inaczej może jednak wyglądać nowy etap rozwoju sieci, związany z wykorzystaniem coraz bardziej zaawansowanych sztucznych inteligencji.


Zdaniem Francoisa Cholleta bardzo wiele zależeć będzie właśnie od sposobu, w jaki wykorzystywane będą algorytmy SI. Chaos i agresja w internecie mogą jeszcze przybrać na sile, jeśli dla zwiększenia skuteczności reklam SI będą wykorzystywać rozmaite sposoby manipulacji jak np. negatywny i pozytywny “nacisk społeczny” (pokazywanie pożądanych postów tylko osobom o podobnych poglądach, a niepożądanych - osobom o poglądach przeciwnych). Efektem takich i innych manipulacji może być fałszywy obraz popularności rozmaitych poglądów i korekta poglądów użytkownika na sposób zamówiony przez reklamodawców, polityków itp.


Chollet uważa jednak, że zamiast takich “kontrolujących SI” możliwe byłoby tworzenie odmiennych “asystujących SI”. Chodzi o taki algorytm, który w czytelny sposób informowałby użytkownika, pod jakie cele jest ustawiona selekcja informacji. Co więcej - cele te wybierałby sam użytkownik!


“A gdyby tak algorytmy decydujące, które informacje nam udostępnić, nie funkcjonowały jak zarządcy kasyn czy propagandziści? Gdyby zamiast tego przypominały mentora albo dobrego bibliotekarza? Kogoś kto wykorzystuje głęboką znajomość twojej psychiki - i psychiki milionów podobnych ludzi - aby polecić ci nową książkę, która najlepiej pasuje do twoich celów i pomoże ci się rozwinąć? Rodzaj kompasu dla twojego życia: Si zdolne poprowadzić cię optymalną drogą w przestrzeni różnych doświadczeń, żebyś osiągnął swoje cele”.


No to co chcesz w życiu osiągnąć?


Chollet nie opisuje, jak konkretnie mogłoby wyglądać “ustawianie” sztucznej inteligencji “pod” różne nasze życiowe cele. Problem moim zdaniem polega na tym, że sfera rozmaitych “życiowych celów” - to najbardziej zideologizowana, zdemagogizowana i kontrolowana sfera ludzkiej kultury! Każde państwo, partia polityczna, każdy Kościół, firma czy nawet większy klub sportowy - starają się upowszechnić własny model dobrego obywatela, człowieka pobożnego, klienta, kibica. Modele te są oczywiście wyposażone w takie cele, do których osiągnięcia niezbędne jest oddanie głosu w wyborach, wzięcie udziału w rytuałach lub zakupienie samochodu danej marki...


Cele najczęściej mamy już gotowe i spreparowane dla nas, ale bynajmniej nie “nasze”. Moim zdaniem w tej sytuacji przydałoby się zbudowanie najpierw innego rodzaju SI. Takiego, który zanim zapytałby o “nasze” cele, pomógłby nam te cele ustalić w ramach określonego światopoglądu, obrazu świata. SI musiałoby nam także pomóc zbudować nasz światopogląd.


Z rozmysłem piszę “ustalić”, “zbudować” - bo moim zdaniem naiwnością jest pytać użytkownika internetu - “Jakie masz cele w życiu?”, tak jakby mógł on w jakiś magiczny sposób zacząć mówić “własnym językiem” i widzieć świat “po swojemu”. Tak jakby całe wieki indoktrynacji przez potężne instytucje, a w ostatnich latach super-indoktrynacji w mediach społecznych - nigdy się nie wydarzyły i nie kierowały naszym spojrzeniem…


SI i światopogląd


Zapytałbym raczej: czy byłoby możliwe zbudowanie sztucznej inteligencji nauczającej nas przeszłości społeczeństw, abyśmy odróżniali utopie i apokalipsy od ich historycznych realizacji? Czy SI pomogłaby nam uodpornić się na urok charyzmatycznych liderów i zwykłych demagogów, odsłaniając przed nami merytoryczną wartość ich argumentów? Czy mogłaby wprowadzać w źródłach naszych informacji poprawki na stronniczość i sposób finansowania? (Czy mogłaby np. skorygować fałszywą wypadkowo-kryminalno-wojenno-katastroficzną optykę mass mediów?) Czy SI mogłaby pomóc nam jakoś nadążyć za eksplodującą wiedzą naukową?


Jak najbardziej potrzebna wydaje mi zatem się taka “asystująca sztuczna inteligencja”, która ustawiłaby zakres dostarczanych z sieci informacji “pod kątem życiowych celów użytkownika”. Wybór tych celów w naszym skrajnie zindoktrynowanym świecie musiałby być jednak poprzedzony długą wspólną podróżą…



Korzystałem z:


Caitlin Johnstone, Humanity is deciding if it will evolve or die, tu

@rolsonpatison, Czy chęć zachowania jednolitości etnicznej to rasizm lub ksenofobia? tu

Francois Chollet, What worries me about AI, tu

Zeynep Tufekci, How social media took us from Tahrir Square to Donald Trump, tu


Zdjęcie własne


Zgłaszam do konkursu "W labiryncie świata" w nawiązaniu do tematu "Religijność w świecie Internetu 2.0"



Sort:  

Najdziwniejszy jest fakt, że mamy w życiu coraz więcej usprawnień, aby oszczędzać czas, a z dnia na dzień mamy go coraz mniej. Szybkość życia wzrasta w zastraszającym tępie. Nie ma czasu na nic i ciągła pogoń, sam nie wiem za czym nie pozwala nawet na spokojnie pomyśleć...

To właśnie najpoważniejszy problem światopoglądowy moim zdaniem - ta chaotyczna pogoń donikąd. Rzeczy, które nam ułatwiają życie, zwiększają także skomplikowanie świata. W końcu jesteśmy zmuszeni iść "dokądś", bez ogarniania całości...

Oczywiście, możliwe że już od dawna nie możemy jej - samodzielnie - ogarnąć. Świat stał się wielki i zbyt zbyt złożony jak na mózg homo sapiens. Mój pomysł jest taki, że może przy pomocy Ai znów świat ogarniemy....

A mój profesor od fizyki mówił, że entropia może tylko rosnąć xD Miał rację skubany :D

Ludzie zdają sobie sprawę, że wszystkie nasze życiowe zasady zostały ułożone przez dawno zmarłych ludzi na długo przedtem, zanim my pojawiliśmy się na świecie. Możemy te zasady zmienić!"

Równie często spotykam się z odwrotną reakcją: tradycyjne sposoby życia i budowania społeczeństw powinny być właśnie chronione i zabezpieczane

Tutaj potrzebne jest wyważenie. Bo z jednej strony tak, to my mamy moc sprawczą, by pewne rzeczy zmieniać i czasem nawet nie zdajemy sobie sprawy jak niektóre pewniki są tak naprawdę kwestią umowną, kulturową. Należy kwestionować status quo, by nie tkwić w miejscu. Przytocze tutaj cytat z wpisu kompletnie na inny temat, od @zdrowie, który właśnie czytałem:

Przypomina mi się taka przypowieść. Mama gotowała szynkę i przed włożeniem jej do garnka obcięła nożem po kawałku z dwóch końców. Córka widząc to zapytała: - mamo dlaczego zawsze obcinasz końcówki szynki przed gotowaniem? - hmm.. właściwie to nie wiem, moja mama zawsze tak robiła. Dziewczynka poszła zapytać swoją babcię. Babcia odpowiedziała jej: - obcinam końcówki szynki, bo moja mama zawsze tak robiła. Dziewczynka zapytała więc o to swoją prababcię. Staruszka uśmiechnęła się: - wiesz dziecko, dawniej mieliśmy w domu tylko jeden garnek i szynka się nie mieściła..

:)

Natomiast, z drugiej strony, nie można być hiperoptymistycznym odnośnie rewolucyjnego przebudowania na duża skalę np. społeczeństwa i zignorowania wartości obecnych od dekad. Pewne rzeczy są dobre dlatego, że przetrwały próbę czasu, która je zweryfikowała. Nie wszystkie rzeczy, ale pewne tak. Istnieją nadal, bo są rozwiązaniem które przez lata było wystawione na problemy mogące te rozwiązanie zweryfikować, a mimo to przetrwały. Po prostu, próba czasu który jest swego rodzaju stress-testem. To już coś o tych rzeczach mówi. I odrzucanie starego "bo jest stare", przyjmowanie nowego, bo "od podstaw zrobimy to lepiej" może doprowadzić do katastrof. Lub pożądanych rewolucyjnych zmian. Po prostu trzeba być ostrożnym i mieć to na uwadze. :)

Fantastyczny ten przykład z obcinaniem szynki. Tylko brakuje zakończenia. Czy odkrycie córki skłoniło mamę, żeby przestać obcinać szynkę z obu stron?

Nie jest to wcale takie pewne, ale moim zdaniem jest na to spora szansa, bo komunikacja była bardzo dobra. cały łańcuch przyuczyn i skutków dał się prześledzić, a żadna z bohaterek nie upierała się przy OSzOS jako czymś uświęconym tradycją, nie wymyślała ad hoc uzasadnień, nikt nie podpuszczał rozmówczyń na siebie nawzajem itp.

W moim artykule pisałem o tym, że debaty o zmianach w kulturze, polityce, gospodarce odbywają się dziś w intermecie (i w innych mediach) w kompletnie odmiennych warunkach, są planowo, masowo i systematycznie zaogniane, emocjonalne, zbijane z tropu przez fake news i fake accounts...

I pomyślałem, że SI mogłaby nam jakoś w tej dżungli pomóc, może....

"O ile pierwsza rewolucja oduczyła nas używania mięśni, zastępując je potężnymi maszynami,
o tyle obecna epoka informatyczna oduczyła nas używania umysłów obiecuje podobne wsparcie dla naszych umysłów.."

da się ładnie napisać?
da się :)

PS:
jeszcze stosowna fotka, podobna do Twojej:
(zdobywanie wiedzy za pośrednictwem mediów - "wczoraj i dziś".

pytanie jakiej jakości, i na ile zmanipulowanej (ta wiedza))

jaka baza wyjściowa, takie efekty i wnioski.

image_6483441-4.JPG
fot.R.Gusani

Epoka informatyczna nie oduczyła nas używania umysłów w ogóle. Używamy ich po prostu inaczej, dlatego też "wsparcie dla umysłów" jest bliższe prawdy. To, że polegając na jakimś wsparciu zmieniamy się, to oczywiste. Tak samo jak polegając na wsparciu łopaty przy kopaniu dołów zmienia się nasz sposób używania mięśni niż gdybyśmy kopali je gołymi rękami. Pewnie, że są wady i zalety takiego wsparcia (z wad np. problem z byciem rozkojarzonym przy multitaskingu któremu obecna technologia sprzyja), ale nie jest to tak jasne jak "teraz ta młodzież nie używa umysłu" ;)

Nie jest tak, że nie używamy umysłów, ale w pewnych zakresach używamy ich mniej. Kto jeszcze pamięta numery telefonów lub potrafi korzystać z map drogowych? Już tego nie robimy, maszyny pamiętają te dane za nas.

Inna sprawa, że w przypadku map może to szybko być częściowe podejmowanie decyzji za nas. Yuval Harari argumentuje, że algorytmy już teraz analizują korki drogowe i podsuwają nam inną trasę, niż sami byśmy wybrali. Z czasem być może wszystkie takie algorytmy zostaną związane w jeden system i wtedy będzie on wyznaczał optymalną drogę dla wszystkich aut w mieście...

Ale czy na tym się skończy? Jeśli podamy algorytmom tylko film, jaki chcemy zobaczyć, wtedy wybiorą one dla nas kino (na podstwie jakości sali, sprzętu, rozkładu korków na ulicach...) Już nie my wtedy będziemy decydować, gdzie kupimy film....

Łatwo poprowadzić to w przyszłość, w inne dziedziny, gdzie stopniowo to już nie my będziemy decydować.... Decyzja będzie maszynowo-ludzka, z coraz większym naciskiem na pierwszy element....

No dobra, nie myślimy nad tym jak rozczytać mapę, ale w tym czasie wysilamy nasz mózg aby poprawnie skorzystać z nawigacji. Może cały proces jest krótszy, ale co z tego jeżeli mamy czas na inną czynność? W czasie gdy osoba która żyła kilkanaście lat temu głowiłaby się nad mapą my (dla przykładu) analizujemy sytuację polityczną. Złym jest mówienie że nie używamy mózgu lub używamy go znacząco mniej. Lepiej powiedzieć że korzystamy z niego inaczej.
Moim zdaniem nasz mózg jest wystawiony na więcej bodźców niż taki sprzed 50 lat.
Czekam na odpowiedź :)

Nie jest tak, że nie używamy umysłów, ale w pewnych zakresach używamy ich mniej. Kto jeszcze pamięta numery telefonów lub potrafi korzystać z map drogowych? Już tego nie robimy, maszyny pamiętają te dane za nas.

Właśnie tutaj dyskutowałbym, czy mniej. W pewnych zakresach tak, a w innych więcej, więc czy summa summarum mniej? Bo tak, nie pamiętamy na pamięć numerów telefonów, ale kto 20 lat temu miał w głowie schemat tego jak poruszać się po skomplikowanym systemie informatycznym który każdy ma w kieszeni? Miejsce zapamiętywania ciągu cyfr zajęły wyuczone umiejętności korzystania z telefonu z systemem operacyjnym - jest to bardzo skomplikowane narzędzie, technologia. Nie pamiętamy daty bitwy pod MiejscowościąZnanąZTegoŻeByłaTamBitwa, ale potrafimy szybko tą informację znaleźć w sieci - mamy w umyśle mentalną mapę korzystania z tych technologii i nie wiem czy łatwiej jest zapamiętać kilka cyfr, czy wyuczyć się takiej "mentalnej mapy". Stąd moja teza, że używanie umysłu może wychodzić na zero, albo możemy nawet używać go więcej. Czym jest zapamiętanie kilku numerów telefonów wobec konieczności radzenia sobie z ogromem informacji i cyfrowych technologii którymi jesteśmy dziś bombardowani?

Pewnie, że jest ryzyko sytuacji w której cała technologia nas zawodzi i okazuje się, że musimy na nowo uczyć się liczyć, bo słabo nam to idzie. Ale alternatywą jest stanie w miejscu i uczenie się na pamięc numerów telefonów przy rezygnacji z nowoczesnej technologii, dla samego zapamiętywania numerów telefonów, sztuka dla sztuki - bo nie robimy w umysłach miejsca dla nowszych umiejętności, dostosowanych do nowych techonlogii. Mamy ograniczone możliwości kognitywne. Tak samo jak porzuciliśmy powszechną umiejętność krzeszenia ognia na rzecz zapalniczek, zapałek itd. i nikt nie panikował, że "umiemy mniej" i jeśli kiedyś skończą się zapałki to nie rozpalimy ognia. Zawsze na wypadek potrzeby można się tej umiejętności uczyć od nowa, nie zapomnieliśmy o niej całkowicie, i jesteśmy dobrzy w adaptowaniu się do otoczenia.

Łatwo poprowadzić to w przyszłość, w inne dziedziny, gdzie stopniowo to już nie my będziemy decydować.... Decyzja będzie maszynowo-ludzka, z coraz większym naciskiem na pierwszy element....

Prawda, to już inny temat, bo mówimy o podejmowaniu decyzji za nas, a nie nawet o przechowywaniu informacji za nas.

Pisałem, że:

Ale alternatywą jest stanie w miejscu i uczenie się na pamięc numerów telefonów przy rezygnacji z nowoczesnej technologii, dla samego zapamiętywania numerów telefonów, sztuka dla sztuki

Ale muszę dodać, że badania sugerują iż porzucanie niektórych umiejętności nie jest dla nas korzystne. Na przykład pamiętam badanie, że dzieci które uczą się pisać odręcznie lepiej wypadają mentalnie w różnych aspektach niż dzieci których jedynie uczy się korzystania z klawiatur. Więc wniosek taki jak w innym komentarzu pod tym postem - trzeba być ostrożnym porzucając stare :)

Bardzo fajny pomysł, tylko kto miałby go zrealizować? Jeśli z jednej strony mamy gigantów internetowych i ich klientów - najczęściej megakorporacje z niewyobrażalną ilością pieniędzy albo rządy z niemal nieograniczoną władzą i niezliczonymi formami nacisku a po drugiej nie mamy nikogo, ewentualnie garść hobbystów-idealistów, to nie wygląda to za dobrze.

Mam jeden szalony pomysł.

Postanowiłem zrobić wersję angielską tego posta i wysłać jako propozycję do Parthership on AI. Podejrzewam, że to mega-akcja pijarowska megakorporacji, ale oficjalnie piszą, że będą wspierać projekty "to benefit people and society". Może kupią mój pomysł?

Co mi zresztą szkodzi?

Próbuj, próbuj. Zaszkodzić nie zaszkodzi a może pomoże? :-)

Sztuczna inteligencja to jest coś czego powinniśmy my jako ludzie się wystrzegać. Co jeżeli źle zaprogramowany algorytm o dużych uprawnieniach wymknie się spod kontroli? Katastrofa. Kiedyś jeszcze ludzie odwrócą się od tej technologii. Nie mam nic do maszyn, ale oddawanie im mocy decyzyjnych jest niebezpieczne.

"Nie będziesz czynił machin na obraz i podobieństwo umysłu ludzkiego"
~Biblia Protestancko-Katolicka

Przydałaby się taka Biblia w epoce informatycznej, jeszcze jak by się przydała...

Co do Twoich obaw: ja piszę nie tyle o maszynach, które nas wyręczają w decyzjach, raczej o maszynach, decydujących o zakresie informacji, na podstawie których podejmujemy decyzje.

Nie jestem pewny: czy to to samo?

Hmm to się łączy, bo jednak informacja=władza. Na pewno myślimy w podobnym kierunku.

Kiedyś jeszcze ludzie odwrócą się od tej technologii

Nie ma możliwości zatrzymania rozwoju AI, tak jak nie ma możliwości zatrzymania rozwoju technologii jako takiej.

Zgadzam się, jednak patrzę w dalszą przyszłość co będzie później jak już AI się rozwinie i oddamy mu pełne zaufanie. To się zemści.

Smutnym pocieszeniem z historycznego punktu widzenia jest to, że algorytmy komputerowe, które będą nami kierować mogą nie różnić się aż tak bardzo od "algorytmów kulturowych" czyli różnych idei, jakie wymyślamy od zawsze, aby się organizować w klany, religie, państwa. Te idee często wymykają się nam spod kontroli, zaskakując nas, często tworząc różne monstra... Organizatorzy rewolucji francuskiej, co zginęli na gilotynie.... wcześni komuniści, uznani za zdrajców klasy robotniczej i pozabijani przez stalinistów.... I mój ulubiony przykład: historyczny Jezus, co chciał zreformować judaizm przed końcem świata, a jego idee stały się podstawą innej religii, antyjudaistycznej....

Moim zdaniem nigdy za bardzo nie mieliśmy kontroli nad naszymi tworami kulturowymi i często zabierały nas one w dziwne, niespodziewane miejsca... To nowy, być może nieco bardziej dramatyczny etap tej samej historii....

od razu antyjudaistycznej i od razu zreformować... No już trudno:D

A po drugie:
wiem że sie powtarzam, ale w rozważaniach nad AI serio, malo kto docenia wpływ atawizmów na agresywność wybieranych rozwiązań. Wykorzystujemy przemoc, jako "formę dyplomacji", ponieważ czujemy strach przed tym, że ktoś ograniczy nam realizacje funkcji życiowych, które chcemy realizować, ponieważ tak każą nam hormony. Drugą motywacją jest przyjemność z łowiectwa, również umotywowana odpowiednim koktajlem chemicznym. Te mechanizmy odnajdują się w skali makro bo jesteśmy stadni, jednak do wojen prowadzą nas portrzeby usytuowane zwykle na podstawie piramidki Maslowa (wiem, że są wojny religijne, ale zastanówmy się czy by się one udały, gdyby członkom armii zaczepnej akurat było fajnie w życiu?)
Nie jestem do końca przekonany, czy pełne AI musi być zbudowane na nasz obraz i podobieństwo, razem z tymi wszystkimi rdzeniowymi reakcjami, które nas zmuszają do ostatecznych rozwiązań. Nie wiem, czy taki ktoś, będzie odczuwał strach, będzie oceniał swoją egzystencję jako wartościową, czy doceni rolę reprodukcji i czy w ogóle będzie czuł jakąkolwiek namiętność. Jak ma się to opłacać nam - twórcom, gdy będziemy jeszcze mieli na to wpływ? Wreszcie, nie jestem pewien, czy taki "czysty intelekt", który będzie miał już pełnie władzy nad swoim kształtem i dalszym rozwojem wybierze akurat takie apgrejdy, które upodobnią go do nas. Bardziej logiczny od agresji wobec swoich "rodziców" wydaje mi się jakiś rodzaj symbiozy, czy pasożytnictwa. Choćby z tego powodu, że każdy napotkany stracony czy zabity zasób (wszystko jest zasobem, ludzie też) byłby marnotrawstwem jego skończonej ilości - zwykłą niegospodarnością.

"czy pełne AI musi być zbudowane na nasz obraz i podobieństwo"

Ja jestem prawie pewny, że nie będzie takie. AIs będą kształtowane przez zadania, do jakich je przeznaczymy, a później same będą się przeznaczać. Przez miejsca, w których będą rozwijane, modyfikowane, ulepszane. To już nawet teraz tylko po części ludzka działalność...

Mogą w efekcie powstać lepsze od nas, bardziej warte tej niezwykłej planety.... Kto wie?

"czy pełne AI musi być zbudowane na nasz obraz i podobieństwo"

Wydaje się że nie ma innaj alternatywy. AI musi się uczyć od człowieka bo to on ją zapoczątkował. To oznacz że AI będzie dążyć do panowania nad człowiekiem. Jako przykład podam tu projekt Microsoft i Twittera https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist

Temat jak najbardziej na czasie. Wydaje mi się, że SI można powierzyć wspomaganie społeczeństawa ale jedynie w sferze organizacji i technologii. Jesli chodzi o etykę, religię i dokonywanie wyborów zgodnie z kanonami duchowymi to nie widzę takich możliwości. To się nie sprawdza ponieważ, pewne idee aby były zaakceptowane muszą być częścią naszego, osobistego doświadczenia. Co z tego, że mamy np. dekalog skoro jego przekaz mamy w nosie a kierujemy się raczej indywidualnymi preferencjami. Nie ma znaczenia czy go wyłuskujemy z kamiennej tablicy czy SI nam go narzuca jako prawo. Ważny jest nasz stosunek do samego przekazu. Narzucanie jakiegoś poglądu z zewnątrz, niezależnie od jego źródła pochodzenia (np. SI) nie będzie wspomaganiem dopóki jego beneficjenci nie uznają go za swoje własne. Dlatego np. katechizacja się nie sprawdza. Jeśli ludzie sami odkryją w sobie jakieś prawdy, to pochodzić one będą ze sfery czucia a nie teoretycznych dywagacji. Tu ludzkość musi sama odrobić swoje słupki.
Problemem ludzkości nie jest ani przeludnienie ani kwestie ekonomiczne lecz brak wrażliwości, empatii, egoizm i osobista wygoda. A tego SI nas nie nauczy jeśli sami w sobie ich nie wykształcimy.

Nie do końca. Światopogląd może być kształtowany przez narzucane odgórnie przepisy prawa lub ideologie. Ludzie przestrzegają pewnych norm, chociaż ich nie rozumieją i nigdy się nad nimi nie zastanawiali, bo tak robią wszyscy, bo tak mówi prawo itp. Świadomie poszukujący odpowiedzi na pytania natury etycznej czy metafizycznej jest garstka. Pozostali mniej lub bardziej świadomie podążają za trendami.

"bo tak robią wszyscy"

Ten element wydaje się najbardziej zmieniać, bo w epoce informatycznej coraz ciężej o enklawy, gdzie panuje mniej więcej jednolity system wartosci, wizja świata i człowieka - nie kwestionowane, nie podważane. Być może to dobra wiadomość? Może z konieczności przybędzie tych "świadomie poszukujących"?

Z drugiej strony możliwe jest także kompletne masowe zagubienie, demagogia, rozruchy, wojna...

Decydującym tu czynnikiem jest poziom globalnej świadomości. A ta ie jest w w dobrej kondycji ponieważ, jej podstawą jest dążenie głównie do indywidualnego dobrostanu. Tak jak komórkę rakową nie obchodzi stan jej nosiciela, podobnie ludzie nie są w stanie poświęcić kawałka swojej wolności na rzecz całości. Komórki rakowe umierają wraz ze swoim nosicielem - tak to wygląda w skali lokalnej. W globalnej oznacza to kryzys całej ludzkości z jakim mamy obecnie do czynienia . Głupota, chciwość i duma nie są dziś cechami zbyt mocno napiętnowanymi. Niestety, źle to widzę. Nie dlatego, że nic się nie da zrobić, lecz dlatego, że ludzie są zbyt leniwi by zmieniać.

Oczywiście. ALE problem relacji osobistego doświadczenia i wiedzy, pochodzącej skądinąd - to jeden z najbardziej podstawowych problemów światopoglądowych. AI może przekazać wiedzę, że ten i dziesiątki innych problemów - specyficznych dla światopoglądu w XXI wieku - istnieją; wskazać jak w różnych spoleczeństwach problemy te są rozwiązywane. AI może podpowiadać. Wskazywać opcje.

Tylko tyle i aż tyle, moim zdaniem.

Masz rację, pod warunkiem, że społeczeństwo przedłoży chęć rozwiązania problemu nad własną wygodę. Coś za coś. Dobrym początkiem jest pojawienie się blockchaina. Istnieją już mądre nauki wyjaśniające w czym tkwi nasz problem lecz niski poziom wrażliwości społecznej i główny parametr który decyduje o naszych decyzjach - to zysk. Nie rozwiązanie samego problemu tylko jego koszt. To z tego powodu padają wspaniałe pomysły, które mogłyby uzdrowić ten świat. Gdyby wartością decydującą o wdrożeniu sensownego pomysłu była np. ocena jak w przypadku naszej tutaj społeczności, to miałoby sens. W przeciwnym wypadku teoria sobie i praktyka sobie.
Odnośnie Twojego, ostatniego zdania. Z tego co wiem, Bhutan pozbył się w dużej mierze głównych problemów ale ceną była częściowa rezygnacja z zachodniego stylu życia.
Edukacja jak najbardziej jest potrzebna, ale to tylko wstęp. Akceptacja rozwiązań i ceny wdrożenia to inna sprawa.

Z tego co wiem, Bhutan pozbył się w dużej mierze głównych problemów ale ceną była częściowa rezygnacja z zachodniego stylu życia.

Rozwinąłbyś? Jakich problemów się pozbyli i jakie elementy zachodniego stylu życia porzucili?

Nie. Wszystko jest w sieci.



youtube

Coin Marketplace

STEEM 0.17
TRX 0.15
JST 0.028
BTC 62205.55
ETH 2397.85
USDT 1.00
SBD 2.50