Jak pisałem @jakipatryk, w pewnym momencie AIs będą nam asystować w podejmowaniu decyzji. Potem będzie analiza skuteczności tych decyzji. Analiza może wykazać, że decyzje, w których daliśmy AIs więcej "wolnej ręki" - dają lepsze wyniki (np. w wyborach na prezydenta USA). Nie rozumiemy, dlaczego AIs podjęły jakieś decyzje, ale były to decyzje lepsze, niż nasze.
Politycy staną wtedy przed wyborem: czy wygrywać wybory, ale za cenę nie rozumienia do końca, jakie się przesłanki i tok analizy AIs - czy też upierać się, że jakiś człowiek musi to rozumieć, co AIs robią, nawet jeśli w efekcie kto inny miałby wygrać wybory.
Nie wiem, czy to będzie potrzebne. Prognoza wyników wyborów to liczby. Komputer potrafi porównać liczby. Politycy potrafią porównać liczby w prognozach wyników wyborów. To idzie jakoś obok moralności.
Społeczeństwa to algorytmy. Takie liczby w wyborach - 500 plus przechodzi. Inne liczby w wyborach 500 plus odpada.
Chyba że zmienimy sposób ustalania, kto rządzi na bardziej "moralny", a mniej matematyczny. Ale jak go zmienić?
Chyba się źle zrozumieliśmy. Myślałem, że chodzi o obliczanie przez AI za nas pewnych rzeczy, żebyśmy nie musieli sami nad tym myśleć i podejmować decyzję. O ile wiele rzeczy w ten sposób da się rozwiązać, to jak "coś" ma za nas zdecydować, co wybrać w wyborach i referendach?
Faktycznie chodzi o "obliczanie przez AI za nas pewnych rzeczy, żebyśmy nie musieli sami nad tym myśleć i podejmować decyzję". ALE te rzeczy to będą najprawdopodobniej zupełnie inne rzeczy, niż "decydowanie, co wybrać w wyborach i referendach".
(Nie dość dokładnie do tej pory określałem, czego moim zdaniem będą dotyczyć decyzje najbardziej zaawansowanych AIs, więc teraz trochę to rozwinę).
Może łatwiej wszystko wyjaśnię, jeśli wskażę, kto tak naprawdę będzie miał kasę, aby posiadać AIs i zadawać im zadania. To nie będą wyborcy, ani klienci. To będą partie polityczne i korporacje. Bo to one mają fundusze, aby finansować najbardziej zaawansowane badania na sztuczną inteligencją i jej zastosowaniami.
A zatem zadanie będzie inne, niż te, o jakim Ty mówisz. Nikt nie będzie pytał AI's, jak wybrać program polityczny, czy produkt, który przyniesie najwięcej korzyści wyborcom czy klientom. Zadanie będzie brzmiało: na podstawie bezliku informacji z tryliona źródeł wybierz taką strategię na strategię reklamową czy kampanię wyborczą, która zagwarantuje, że to my zdobędziemy rynek/stanowisko prezydenta.
I właśnie przy takim zadaniu, które przecież z moralnością ma niewiele wspólnego, właściciele AI's staną przed decyzjami, o jakich pisałem dwa komentarze powyżej (" w pewnym momencie AIs będą nam asystować w podejmowaniu decyzji..." itd.), z wszystkimi dalszymi konsekwencjami.
Tylko, że ja nie mówię o świadomym oddawaniu.
Jak pisałem @jakipatryk, w pewnym momencie AIs będą nam asystować w podejmowaniu decyzji. Potem będzie analiza skuteczności tych decyzji. Analiza może wykazać, że decyzje, w których daliśmy AIs więcej "wolnej ręki" - dają lepsze wyniki (np. w wyborach na prezydenta USA). Nie rozumiemy, dlaczego AIs podjęły jakieś decyzje, ale były to decyzje lepsze, niż nasze.
Politycy staną wtedy przed wyborem: czy wygrywać wybory, ale za cenę nie rozumienia do końca, jakie się przesłanki i tok analizy AIs - czy też upierać się, że jakiś człowiek musi to rozumieć, co AIs robią, nawet jeśli w efekcie kto inny miałby wygrać wybory.
Jak sądzisz, co wtedy zrobią politycy?
A jaki będzie wynik przy porównaniu własnych poglądów do 500+? Komputer będzie w stanie ocenić moralność?
Nie wiem, czy to będzie potrzebne. Prognoza wyników wyborów to liczby. Komputer potrafi porównać liczby. Politycy potrafią porównać liczby w prognozach wyników wyborów. To idzie jakoś obok moralności.
Społeczeństwa to algorytmy. Takie liczby w wyborach - 500 plus przechodzi. Inne liczby w wyborach 500 plus odpada.
Chyba że zmienimy sposób ustalania, kto rządzi na bardziej "moralny", a mniej matematyczny. Ale jak go zmienić?
Fajna debata, btw. :)
Chyba się źle zrozumieliśmy. Myślałem, że chodzi o obliczanie przez AI za nas pewnych rzeczy, żebyśmy nie musieli sami nad tym myśleć i podejmować decyzję. O ile wiele rzeczy w ten sposób da się rozwiązać, to jak "coś" ma za nas zdecydować, co wybrać w wyborach i referendach?
Faktycznie chodzi o "obliczanie przez AI za nas pewnych rzeczy, żebyśmy nie musieli sami nad tym myśleć i podejmować decyzję". ALE te rzeczy to będą najprawdopodobniej zupełnie inne rzeczy, niż "decydowanie, co wybrać w wyborach i referendach".
(Nie dość dokładnie do tej pory określałem, czego moim zdaniem będą dotyczyć decyzje najbardziej zaawansowanych AIs, więc teraz trochę to rozwinę).
Może łatwiej wszystko wyjaśnię, jeśli wskażę, kto tak naprawdę będzie miał kasę, aby posiadać AIs i zadawać im zadania. To nie będą wyborcy, ani klienci. To będą partie polityczne i korporacje. Bo to one mają fundusze, aby finansować najbardziej zaawansowane badania na sztuczną inteligencją i jej zastosowaniami.
A zatem zadanie będzie inne, niż te, o jakim Ty mówisz. Nikt nie będzie pytał AI's, jak wybrać program polityczny, czy produkt, który przyniesie najwięcej korzyści wyborcom czy klientom. Zadanie będzie brzmiało: na podstawie bezliku informacji z tryliona źródeł wybierz taką strategię na strategię reklamową czy kampanię wyborczą, która zagwarantuje, że to my zdobędziemy rynek/stanowisko prezydenta.
I właśnie przy takim zadaniu, które przecież z moralnością ma niewiele wspólnego, właściciele AI's staną przed decyzjami, o jakich pisałem dwa komentarze powyżej (" w pewnym momencie AIs będą nam asystować w podejmowaniu decyzji..." itd.), z wszystkimi dalszymi konsekwencjami.