Sztuczna inteligencja rozpoznawająca ludzkie emocje.
Czy to możliwe żeby sztuczna inteligencja potrafiła odczytać nasze emocje i na nie zareagować w odpowiedni sposób? Okazuje się, że technologia w tej materii tak się rozwinęła, że jest to jak najbardziej możliwe. Z jednej strony jest to bardzo fascynujące, a z drugiej trochę niepokojące. No bo jak wyobrazić sobie sytuacje, w której np. opłakując zmarłą bardzo bliską nam osobę, będzie próbowało nas pocieszyć "gadające pudełko". Wizja scenariusza z filmu Ex-machina staje się jak najbardziej realna :) I chociaż nie grozi nam bunt maszyn z "Terminatora", bo jeszcze dużo czasu minie zanim sztuczna inteligencja będzie w stanie dorównać ludzkiemu poziomowi percepcji, to zachodzące zmiany będą miały istotny wpływ na nasze codzienne życie.
Google wraz z firmą Jigsaw opracowały już program wychwytujący z komentarzy internautów niewłaściwe treści. Perspective, bo taką nazwę nosi program, potrafi oflagować uznane przez siebie niewłaściwe komentarze i przesłać informacje o nich do moderatora. Dzięki takiemu rozwiązaniu internauci prawdopodobnie będą bardziej skłonni do zedytowania napisanych przez siebie niewłaściwych komentarzy, a może nawet w przyszłości do powstrzymania się przed ich napisaniem. Sprawą oczywistą jest, że przy nabierającemu na znaczeniu zjawisku hejtu czy trollingu, program nie jest w stanie wyłapać wszystkich tego typu treści.
Do niedawna sztuczna inteligencja potrafiła odczytać ludzkie emocje czy nastroje poprzez analizę ludzkiej mimiki, jednak skuteczność takie analizy pozostawiała wiele do życzenia. Rewolucyjne okazało się badanie zmian w odcieniach twarzy. Program analizuje przepływ krwi pod skórą naszej twarzy, towarzyszący okazywanym przez nas emocjom. Dzięki temu sztuczna inteligencja z bardzo dużym prawdopodobieństwem potrafi odczytać stan emocjonalny badanej osoby. Każdy rodzaj okazywanych przez nas emocji takich jak gniew, radość czy smutek mają unikalny wzór kolorystyczny oparty na przepływie krwi. W przeprowadzonych badaniach okazało się, że program był w stanie z większą skutecznością odczytać ludzkie nastroje, niż człowiek.
Jakie to będzie miało zastosowanie? Głównym celem jest wprowadzenie tego oprogramowania do systemu monitoringu. Będąc w posiadaniu tak potężnego narzędzia do identyfikacji twarzy, służby bezpieczeństwa będą miały możliwość odczytać aktualny stan emocjonalny podejrzanej osoby. Dzięki czemu będzie można zapobiec licznym przestępstwom czy atakom terrorystycznym. A co za tym idzie zwiększyć bezpieczeństwo obywateli. Miejmy nadzieje, że uda się wdrożyć takie rozwiązania.
Podsumowując, należy pamiętać, o tym że sztuczna inteligencja jest w stanie odczytać ludzkie emocje, ale nie jest w stanie ich zrozumieć. Sztuczna inteligencja nie nauczy się kreatywności, nie będzie posiadała intuicji czy też nie okaże wyrozumiałości i współczucia. Dzięki temu to człowiek w dalszym ciągu ma przewagę nad "maszyną".
Post dodany jako odpowiedź do tematu trzeciego 31 edycji Tematów Tygodnia - "Moje emocje i ich wpływ na życie"
Przyjdzie taki czas że sztuczna inteligencja zawładnie światem..
Może to po prostu standard ewolucji. AI na pewno będzie wiele inteligentniejsze od człowieka, a z obecnego stanu wiemy co robią twory bardziej inteligentne od innych.
Pewnie tak, bo już dziś w wielu sferach maszyna zastępuje człowieka.
popraw tag na pl-emocjonalnie nie emocjonelnie
?? przecież taki jest
literówka jest w tagu, zerknij jeszcze raz
ok dzięki, teraz widzę :)
:-)
"Będąc w posiadaniu tak potężnego narzędzia do identyfikacji twarzy, służby bezpieczeństwa będą miały możliwość odczytać aktualny stan emocjonalny podejrzanej osoby. Dzięki czemu będzie można zapobiec licznym przestępstwom czy atakom terrorystycznym." to raczej nie jest ich prawdziwy cel :)
Serio?!? Tego byś chciał? Narzędzia, które pozwoli aresztować ludzi za wyraz twarzy? A jak taki delikwent może się obronić? Od kiedy to powszechna inwigilacja i ingerencja w prywatność zwiększa bezpieczeństwo obywateli? A czy jak władze obiecają, że nie będą używać tego systemu do powstrzymywania demokratycznych form protestów to im uwierzysz?
W Chinach mają już w jakiejś szkole pilotażowy program AI obserwującej uczniów i wychwytującej tych, którzy się nudzą i nie są aktywni. Czy takie rozwiązanie coś poprawi? Czy nie masz prawa do bycia zmęczonym albo znudzonym nielubianym przedmiotem? Do czego ma to doprowadzić? Do zmuszania ludzi do stałego udawania? Czy może do zaprogramowania w Tobie stałego poczucia, że jesteś obserwowany i wszelkie odchylenia od standardowego zachowania zostaną na pewno zauważone?
Chyba nie rozumiesz kontekstu. Próbujesz porównać emocje człowieka, który ma stresującą pracę, z emocjami terrorysty, który zaraz się wysadzi pasem szahida?
Wręcz przeciwnie. Rozumiem kontekst ale też umiem spojrzeć szerzej. Rozwiązania jak to, które zrównują wszystkich na poziomie potencjalnych terrorystów i przestępców są nie tylko niemoralne ale i szkodliwe. I nieskuteczne (fanatyk idący na samobójczą śmierć może być o niebo spokojniejszy niż Ty przy porannej kawie gdy wokół Twoje potomstwo zamienia kuchnię w pobojowisko).
Ja w powszechnej inwigilacji i stosowaniu podobnych do opisywanego przez Ciebie systemach widzę masę potencjalnych problemów, które nie tylko będą miały wpływ na życie pojedynczych (niewinnych) osób ale i spowodują nieznane (ale można z dużą pewnością zakładać, że bardzo negatywne) zmiany w społeczeństwie.
Jest tego tyle, że nawet nie wiem od czego zacząć.
Choćby pomijając takie drobiazgi jak to z jaką skutecznością by ten system działał (jak np. weryfikować, że false positive to rzeczywiście był false? wjazdem podejrzanemu na chatę? przesłuchaniami jego rodziny, znajomych, sąsiadów? aresztowaniem?) i to, że projektowany przez ludzi nadal może mieć wbudowane w sobie ludzkie uprzedzenia (kto weryfikuje poprawność wyborów uczących się sieci neuronowych albo buduje zestawy heurystyk?) to jest jeszcze rosnąca tendencja wśród władz, służb, urzędników, sędziów i każdego kto korzysta z tzw. systemów eksperckich do wyłączania czynnika ludzkiego przy korzystaniu z tychże systemów. Ludzie ci jakoś bardzo chętnie zapominają o tym, że mają to być systemy wspomagające decyzje (póki co) i chętnie wyręczają się nimi (choćby przy przesuwaniu odpowiedzialności: "według wcześniej obowiązujących procedur nie udało się tu znaleźć nic podejrzanego, podejrzewam, że dalsze dokładne sprawdzenia też by nic nie znalazły, ale skoro system włącza alarm, to lepiej dmuchać na zimne"). W USA to już się niestety dzieje.
Poza tym powinniśmy unikać uzbrajania państwa w narzędzia, które dają mu taką przewagę nad obywatelem. Jak pokazuje historia, bezwzględne zaufanie pokładane we władzy wielokrotnie okazywało się naiwne (żeby nie powiedzieć, że głupie). A co jeśli państwo przestanie być demokratyczne a stanie się totalitarne / reżimowe (przypominam, że Hitler dotarł do władzy na skutek legalnych procesów demokratycznych)? Wtedy narzędzia zapewniające rzekome bezpieczeństwo obywatelom staną się nagle narzędziami represji. I bardzo skutecznie będą walczyć z każdą formą opozycji i przejawem nieposłuszeństwa zamiast chronić obywateli przed mniej czy bardziej wyolbrzymianym zagrożeniami. I tylko tę władzę umocnią, niezmiernie utrudniając oddolne próby zmian i prześladując inicjatorów, również potencjalnych, takich zmian.