A.I. (Intelligenza Artificiale), può fallire e ci sottometterà tutti?

in #ita6 years ago (edited)

Ormai tra film catastrofici, profezie, falsi miti e dicerie si è probabilmente persa la corretta visione della A.I. (Intelligenza Artificiale) rispetto al suo potenziale e alla sua infallibilità.
ma partiamo dall’inizio.


clicca per ingrandire
CC0 Creative Commons - Fonte immagine

Cos’è l’A.I. (Intelligenza Artificiale)


Per Intelligenza Artificiale si intende quella disciplina delle scienze informatiche che studia i fondamenti teorici e le applicazioni pratiche che consentono la progettazione di sistemi hardware o software capaci di fornire ai computer prestazioni di scelta che potrebbero essere assimilabili a quelle tipiche dell’intelligenza umana.
Il termine Intelligenza Artificiale fu introdotto concretamente da John McCarthy già nel 1956 durante un convegno dedicata allo sviluppo di sistemi intelligenti. Qualche anno dopo anche IBM cominciò a sviluppare i primi prototipi di programmi capaci di ragionamento, si passò ad applicazione in ambito commerciale solamente nel 1982 quando Digital Equipment utilizzò il suoi sistema “R1” per configurare gli ordini per nuovi computer.
I più recenti sistemi di Intelligenza artificiale sono per esempio il famoso “Deep Blue”, in grado di confrontarsi con i più famosi campioni di scacchi contemporanei.

L'Intelligenza Artificiale potrebbe fallire?


Mentre il software tradizionale è vincolato da rigide regole, l'intelligenza artificiale invece segue modelli probabilistici. La differenza tra i due sistemi è quindi significativa, da qui il nasce l’infinito potenziale ma anche il problema potrebbe far fallire definitivamente A.I.
Le probabilità, per loro natura, sono generalmente corrette, ma non in maniera assoluta, Le A.I. potrebbero effettuare scelte sbagliate, potenzialmente con conseguenze molto gravi.
L'A.I. cambia la certezza e rigidità dei comandi "IF/THEN" per i benefici che ne derivano da "IF questo, THEN c'è una probabilità del 92% che THIS sia il prossimo passo." Il fatto che le IA agiscono in base alle probabilità piuttosto che a regole fisse significa che sono molto più flessibili dei software basati su regole. Tuttavia l’incertezza della scelta potrebbe occasionalmente non solo portare le IA a scelte sbagliate ma anche a scelte imprevedibilmente sbagliate.
L'apprendimento derivante da questo nuovo processo effettuato dopo ogni azione, significa di fatto che l’A.I. ha il 92% di processi evolutivi corretti e un 8% di possibilità che faccia qualcosa di inaspettato. La percentuale del 92% non è fisso e dovrebbe migliorare quando l’A.I. imparerà quali circostanze e input di dati meritano una risposta diversa. Ma questa curva di apprendimento potrebbe essere a volte negativa.
L'apprendimento dell’Intelligenza Artificiale ha avuto alcuni spettacolari fallimenti, il più nefasto è quello legato al “ Tay Bot” di Microsoft che, doveva essere utilizzato su Twitter per "imparare", divenne rapidamente razzista e misogino. Un altro caso fu quello di un'IA utilizzata per capire come massimizzare i punteggi non un gioco di corse, rapidamente l’AI capì non solo come massimizzare il punteggio ma capì anche come “truccare” il gioco per non far mai terminare la partita.
Un'IA potrebbe commettere errori simili durante l'ottimizzazione, ad esempio, sulle vendite e acquisti. È più facile incentivare un'IA sugli acquisti completati che insegnare ad una IA come analizzare entrate, margini, profitti lordi e profitti netti, potresti finire con un numero impressionante di vendite a basso margine che ti costano denaro prima che un'IA impari cosa conviene veramente.
L’apprendimento della AI potrebbe essere facilmente deviato se vengono inseriti volutamente “cattivi Input”. Il problema dei "cattivi input" potrebbe peggiorare notevolmente se questi sono progettati specificatamente per danneggiare o distruggere l’AI da colui che li inserisce.


clicca per ingrandire
CC0 Creative Commons - Fonte immagine

Che cosa sono la A.I. corrotte?


È solo una questione di tempo prima che il “bot-phishing” diventi un termine utilizzato quotidianamente. Questo ci porta al problema di come certificare che un bot AI sia integro o corrotto.
Come possiamo certificare il processo di addestramento, cosa è autorizzata a fare e soprattutto garantire che l'AI sia ciò che dichiara di essere e che non sia stata manipolata o corrotta?
Forse ci tornano alla mente il test fatti nel famosissimo fil di fantascienza Blade Runner, dove ll test di Turing era progettato per valutare se una AI potessero essere scambiato per un essere umano.
Questo test è anche stato applicato nei giorni nostri, l'unica volta in cui si è affermato che un'IA abbia superato il test di Turing fu quando un chatbot, progettato per impersonare un ragazzo ucraino di 13 anni con una scarsa conoscenza dell'inglese, ingannò alcuni umani poiché costoro pensando di parlare con qualcuno con grammatica e capacità di conversazione, scambiarono l’AI per un vero umano.
Nel giusto contesto, una intelligenza artificiale può essere difficile da distinguere da una persona.

Conclusione


Sin dagli albori dell'automazione, da cui ha origine della parola "robot", abbiamo accolto con favore quelle tecnologie che sostituiscano l'uomo, magari nei lavori pesanti, ma siamo sempre stati diffidenti nei confronti dei padroni delle tecnologia e nel diventarne dipendenti.
Leggendo il recente libro di Nick Bostrom "SuperIntelligence" e anche ascoltando gli ultimi avvertimenti di luminari come Elon Musk e Stephen Hawking, siamo sempre più attenti al possibile futuro che potrebbe avere l’AI.
Con i progressi nell'IA moderna, è facile ipotizzare che essa possa raggiungere uno stato di coscienza che la porti a "pensare" per se stessa. È impossibile attualmente ipotizzare un metodo attraverso il quale impedire che le AI possano “uscire dai binari” pur continuando a consentire loro di imparare e avanzare.
Dal momento che il software di intelligenza artificiale è intrinsecamente auto-alterante, non è possibile costruire alcun recinto. La chiave potrebbe essere limitare il tipo di azioni che un AI è autorizzato a svolgere e fare in modo che tale autorizzazione provenga solo dall’esterno, anche da un’altra AI.
Se ogni azione intrapresa da una IA deve essere autorizzata da intelligenza artificiale indipendente, diventa impossibile che una o più AI possano agire in maniera anomala.

Fonte dati e introduzione iniziale

Follow Me: @pojo  

Sort:  

bell'articolo!

Reply to this comment if you want me to resteem your last blog post to my 32,500+ followers. Then whenever you want me to resteem another blog post go to my Comments and reply to my last comment. It's free. @a-0-0 😊

Grazie, questo argomento affascinante apre le porte ad alcune speculazioni:
Quando si produrranno intelligenze artificiali utilizzando i qbit cosa succederà?
Si applicheranno le tre leggi della robotica di Asimov?
Sono possibili intelligenze aliene a base silicio autoctone o create da alieni a base carbonio poi estinti?

...belle domande... varrebbe la pena approfondire!

Il sistema andò online il 4 agosto 1997. Skynet cominciò a imparare a ritmo esponenziale. Divenne autocosciente alle 2:14 del mattino, ora dell'Atlantico, del 29 agosto.

Attendo con ansia Skynet con i T-800. :)

autocoscienza o errore di valutazione? che il cancro del mondo sia l'uomo penso i sia arrivato anche il mio gatto...

Diciamo che la matrice, cioè noi, siamo autodistruttivi. Cioè razionalizzando siamo un virus. L'esperimento di twitter somiglia per certi versi quello fatto da Marina Abramovich negli anni 70, dove lei rimaneva immobile e i visitatori potevano fare qualsiasi cosa senza che reagisse. Poco finì che l'ammazzassero.

questo esperimento non lo conoscevo ma avrei scommesso che sarebbe finito cosi!

Coin Marketplace

STEEM 0.18
TRX 0.13
JST 0.028
BTC 57688.87
ETH 3100.54
USDT 1.00
SBD 2.37