You are viewing a single comment's thread from:

RE: Sztuczna inteligencja a prawo

in #polish7 years ago (edited)

Oczywiście, post bardzo mi się podoba ;)

Nie "jeśli', tylko "kiedy" SI wytworzy własną moralność - taką bym zaproponował poprawkę. Moralność to najprościej mówiąc zasady współdziałania w grupie. SI na pewno będą musiały ze sobą - i z nami - współpracować, a zatem moralność ich nie ominie.

Nie sądzę, abyśmy to MY zbyt długo pisali dla nich zasady moralne. Już w tej chwili są SI, działające jak "czarne skrzynki" - osiągają świetne wyniki w swojej specjalności, ale my nie wiemy, JAK im się udało je osiągnać. "Przycinanie" zakresu ich działań tylko do tego, co my możemy pojąć byłoby ograniczaniem ich możliwości. Nawet jak my je ograniczymy, konkurencja rynkowa (lub KOrea Północna) pójdą na całość. Zawsze znajdzie się ktoś, komu zabraknie wyobraźni...

Zamiast zastanawiania się, jak kontrolować SI, ja myślę, że pora się zastanowić, jak zacząć żyć na drugim (już nie na pierwszym!) szczebelku drabiny pokarmowej na tej planecie...

Sort:  

Dziękuję :)
Obawiam się, że masz rację.
Czy mógłbyś rozwinąć ostatnią myśl?

Chodzi mi o przeniesienie przynajmniej cześci środków i wysiłku umysłowego na opracowanie strategii na wypadek, kiedy żyjemy w świecie, gdzie jest - oprócz przerastających nas żywiołów natury - także druga inteligencja, która nas przerasta. Możliwe strategie:

  • sami się cyborgizujemy, aby przejąć atuty AI
  • opracować teorię i priorytety komunikacji z inteligencją wyższą od naszej
  • opracować bardziej humanitarne sposoby trenowania SI, aby się w przyszłości nie odgrywały
  • zmienić model współżycia z nie-ludźmi (rośliny, zwierzęta), na taki, abyśmy potem nie żałowali, jeśli SI odwzoruje ten model wobec nas
  • przygotowywać arkę międzygwiezdną, aby przynajmniej na jakiś czas zachować niezależność dzięki usunięciu się spod wpływów AI

Plany awaryjne.
Jeśli chcemy aby nas traktowano humanitarnie, przede wszystkim musimy sami zacząć taktować siebie i pozostałych Ziemian humanitarnie. Masz rację.

Może do planów awaryjnych warto dopisać opracowanie wyłącznika (o ile zadziała przy sztucznej inteligencji), tak jak proponuje autorka sprawozdania.

Moim zdaniem żadne "wyłączniki" nie zadziałają, bo mamy dwa krzyżujące się wyścigi: światowe korporacje dążą do uzyskania jak największych zysków z SI i światowe mocarstwa dążą do uzyskania jak największych wpływów przy pomocy SI. Zatrzymanie programu rozwoju SI w Google oznacza tylko tyle, że SI uwolni się w efekcie badań Facebooka; zatrzymanie badań w Unii oznacza tylko tyle, że nasi sztuczni Panowie pojawią się najpierw w Chinach albo USA.

Chyba, że wierzysz w możliwość dogadania się wielkich korporacji ze sobą, państw ze sobą, a potem ustanowienie jakiejś wspólnej ogólnoświatowej polityki co do SI? Teraz, kiedy nacjonalizm jest na ogromnej fali wzrostowej, rząd USA prowadzi prawie wojnę z ONZ, a najmniejsze mikroniebezpieczeństwo terroryzmu jest przez media rozdmuchiwane (dla reklam) na skalę kosmicznego kataklizmu?

Maleńka szansa jest, ale to będzie wymagało ogromnego przełomu kulturowego, rewolucji w edukacji, w religiach, zupełnie nowych modeli mediów, czegoś w rodzaju nowej epoki kulturowej i cywilizacyjnej. Takiej kolosalnej zmiany, jak przy wynalezieniu ognia, rolnictwa, druku, silnika albo komputera. Nie wiem, czy wystarczy nam pomysłowości i czy zdążymy....

Ale może p. Delvaux ma jakiś pomysł, jak rozszerzyć ewentualne przepisy unijne co do SI - na cały rozwinięty świat?

Przy takich warunkach "środowiskowych" zupełnie realna finalnie staje się arka. Człowiek człowiekowi zgotuje ten los.

Coin Marketplace

STEEM 0.18
TRX 0.13
JST 0.028
BTC 57367.79
ETH 3098.11
USDT 1.00
SBD 2.32