{"id":18121,"date":"2022-04-07T11:21:21","date_gmt":"2022-04-07T09:21:21","guid":{"rendered":"https:\/\/www.igmanagement.it\/?p=18121"},"modified":"2023-06-21T15:50:45","modified_gmt":"2023-06-21T13:50:45","slug":"staying-human-pays-off-why-our-intelligence-is-still-superior-to-that-of-machines","status":"publish","type":"post","link":"https:\/\/www.igmanagement.it\/en\/2022\/04\/07\/staying-human-pays-off-why-our-intelligence-is-still-superior-to-that-of-machines\/","title":{"rendered":"Staying human pays off: why our intelligence is (still) superior to that of machines"},"content":{"rendered":"
Massimo Berlingozzi \u2013 pubblicato su Persone e Conoscenze (ESTE) dicembre 2021<\/strong><\/p>\n Ci vuole qualcosa di pi\u00f9 che l\u2019intelligenza per agire in modo intelligente Il tentativo di dare una definizione unica e omnicomprensiva del concetto di\u00a0intelligenza<\/strong>, di questa importantissima qualit\u00e0 umana, non ha mai avuto successo. Ci troviamo infatti di fronte a qualcosa di enormemente complesso e in larga parte ancora non compreso. Una sorta di gigantesco mosaico, il cui significato tuttavia sfuggirebbe al \u201cDemone di Laplace\u201d, perch\u00e9 mai riconducibile alla somma delle caratteristiche delle singole tessere. Eppure, tentativi se ne sono fatti, eccome. Dall\u2019antica distinzione dei filosofi greci tra\u00a0intelletto e ragione<\/strong>, sopravvissuta, con formulazioni diverse, fino alle opere dei grandi filosofi del diciottesimo secolo, per arrivare alla definizione di \u201cIntelligenze multiple<\/strong>\u201d di Howard Gardner (1983), che spazia dall\u2019intelligenza logico matematica a quella linguistica, musicale spaziale e interpersonale.<\/p>\n Pi\u00f9 semplicemente molti di noi metterebbero in relazione l\u2019idea di intelligenza con il famoso\u00a0Q.I. (Quoziente di Intelligenza)<\/strong>, nozione che, a partire dai lavori dello psicologo francese Alfred Binet nei primi anni del \u2018900, ebbe infatti grande successo, dando vita a numerosi strumenti per la sua valutazione. Ancor oggi i test per la valutazione del Q.I., orientati a sondare prevalentemente capacit\u00e0 cognitive di memoria e di ragionamento, sono ampiamente presenti nei test di ammissione a molte facolt\u00e0 universitarie.<\/p>\n Per molto tempo, dunque, l\u2019idea di intelligenza come sinonimo di pensiero razionale, ha avuto un ruolo dominante nella nostra cultura, creando un filtro valutativo che ha condizionato profondamente le scelte in molti campi a partire dall\u2019educazione e quindi dalla scuola. L\u2019idea di una \u201cintelligenza sociale<\/strong>\u201d comincia a farsi strada intorno agli anni \u201940, e poi, in modo pi\u00f9 ampio, con i primi lavori di Gardner negli anni \u201970, ma \u00e8 solo in un articolo pubblicato nel 1990 che Salovey e Mayer danno una prima definizione di Intelligenza Emotiva:\u00a0\u201cLa capacit\u00e0 di controllare i sentimenti e le emozioni proprie e altrui, distinguerle tra di esse\u00a0<\/em>e di utilizzare queste informazioni per guidare i propri pensieri e le proprie azioni\u201d.<\/em>\u00a0\u00a0<\/em><\/p>\n Con gli anni \u201990 si conclude quindi il lungo e faticoso percorso che ha portato a riconoscere le emozioni come una componente essenziale della nostra intelligenza. L\u2019interesse per le emozioni, precedentemente, a partire dall\u2019opera di Charles Darwin, era prevalentemente legato agli studi nel campo della biologia e in seguito affrontato da psicologi particolarmente attenti a comprendere l\u2019aspetto biologico delle emozioni, importanti in questo senso i lavori di\u00a0Silvan Tomkins<\/strong>\u00a0(1962) e poi quelli di\u00a0Paul Ekman<\/strong>\u00a0e\u00a0Wallace V. Friesen<\/strong>\u00a0(1969). Il merito degli studi sull\u2019intelligenza emotiva, approdati poi al grande pubblico attraverso la vasta opera divulgativa di\u00a0Daniel Goleman<\/strong>, \u00e8 aver fatto comprendere il ruolo fondamentale che le emozioni svolgono in situazioni per molto tempo immaginate come esclusivo dominio del pensiero logico razionale. Il premio Nobel 2002 per l\u2019economia, assegnato a\u00a0Daniel Kahneman<\/strong>, \u00e8 la pi\u00f9 importante conferma in questa direzione. Gli studi di Kahneman dimostrano infatti come le decisioni umane, in campo economico (ma non solo), divergano sistematicamente dalla presunta razionalit\u00e0 a lungo sostenuta dalle teorie economiche classiche.<\/p>\n La sintesi di quanto detto finora, anche in assenza di una definizione capace di soddisfare chiunque, ci pone dunque di fronte a una visione ampia e articolata dell\u2019intelligenza umana, che include, oltre al dominio della mente ragionante, anche ci\u00f2 che della nostra intelligenza \u00e8 legato alle emozioni e ai sentimenti. Una base importante per avviare un confronto con il concetto di Intelligenza Artificiale. (AI).<\/p>\n Ci\u00f2 che \u00e8 intelligente non \u00e8 mai artificiale<\/strong><\/p>\n Molti individuano in Alan Turing, famoso per la decrittazione della macchina \u201cEnigma\u201d con cui la Germania nazista cifrava i suoi messaggi, il padre dell\u2019Intelligenza Artificiale. Alcuni suoi lavori, come quello in cui sviluppa l\u2019idea del test che porta il suo nome, sono considerati come i primi importanti contributi di questa disciplina. Ma solo nel 1955 John McCarthy conier\u00e0 la definizione di\u00a0Intelligenza Artificiale (A.I.)<\/strong>, formulando insieme a Marvin Minsky e Claude Shannon, la cosiddetta \u201cproposta di Dartmouth\u201d, in cui vengono definiti i temi principali della ricerca in questo campo: le reti neurali, la teoria della computabilit\u00e0, la creativit\u00e0 e l\u2019elaborazione e il riconoscimento del linguaggio naturale.<\/p>\n La domanda se l\u2019Intelligenza Artificiale \u00e8, o sar\u00e0, in grado di replicare o addirittura superare l\u2019intelligenza umana, \u00e8 una questione molto aperta e dibattuta<\/strong>, animata da voci autorevoli spesso fortemente discordanti. Lungi dall\u2019idea di poter trarre delle conclusioni definitive, \u00e8 importante tuttavia fornire un necessario chiarimento: molto del materiale informativo reperibile su questo argomento, \u00e8 fortemente condizionato dagli enormi interessi economici legati agli sviluppi tecnologici in questo settore. Nell\u2019ambito di una disciplina a cavallo tra futuro e fantascienza, dal sapore inevitabilmente affascinante, diventa dunque fondamentale saper distinguere le conoscenze realmente acquisite dal linguaggio del marketing.<\/p>\n Nel 2015 ha avuto molto risalto un appello firmato dal filosofo Nick Bostrom, autore del libro\u00a0Superintelligenza<\/em>, a cui ha aderito anche il celebre astrofisico Stephen Hawking, sulle minacce legate a uno sviluppo incontrollato dell\u2019A.I. C\u2019\u00e8 chi ha giudicato come eccessive queste preoccupazioni, ma \u00e8 innegabile che queste valutazioni producano forti suggestioni in una opinione pubblica impressionata dagli straordinari risultati ottenuti da presunte \u201cmacchine pensanti<\/strong>\u201d. Negli ultimi anni i sistemi di machine learning\u00a0 Sono risultati di questo tipo che fanno dire ad alcuni esperti del settore che il momento in cui sar\u00e0 possibile replicare l\u2019intelligenza umana \u00e8 ormai molto vicino. Demis Hassabis, del Deep Mind di Google, \u00e8 convinto che questo traguardo potr\u00e0 essere raggiunto in qualche decina d\u2019anni, altri, come Rodney Brooks direttore fino al 2007 del Laboratorio di A.I. del MIT di Boston, sono infinitamente pi\u00f9 cauti e pensano che ci vorranno centinaia d\u2019anni.<\/p>\n Ma la stima sull\u2019asse del tempo rischia di essere una lettura molto parziale per chi riflette su questo tema in modo molto pi\u00f9 radicale. Luciano Floridi, professore ordinario di filosofia ed etica dell\u2019informazione a Oxford, afferma che non ha senso parlare di intelligenza, poich\u00e9 \u201ctutto ci\u00f2 che \u00e8 veramente intelligente non \u00e8 mai artificiale e tutto ci\u00f2 che \u00e8 artificiale non \u00e8 mai intelligente\u201d. Tutti, peraltro, sono concordi nell\u2019affermare che i risultati straordinari a cui abbiamo accennato, non siano classificabili come \u201cArtificial General Intelligence\u201d (AGI), un\u2019AI capace di replicare completamente l\u2019intelligenza umana, ma solamente come \u201cNarrow Artificial Intelligence\u201d, \u201cIntelligenza artificiale debole\u201d, che si pone come obiettivo la realizzazione di un sistema capace di agire con successo in una specifica attivit\u00e0 complessa come, per esempio, il riconoscimento di immagini. \u00c8 proprio di questo che parla Floridi, quando invita a riflettere sullo \u201cscollamento\u201d che si \u00e8 creato tra la \u201ccapacit\u00e0 di agire con successo nel mondo\u201d e la necessit\u00e0 di essere intelligenti. Se infatti, per un attimo, ci distacchiamo dallo straordinario risultato raggiunto, e ci chiediamo come l\u2019A.I. ha agito per ottenerlo, scopriamo che questo risultato \u00e8 stato ottenuto operando, unicamente, attraverso un enorme capacit\u00e0 di elaborazione di dati<\/p>\n Perch\u00e9 solo noi<\/em><\/strong>: il discrimine del linguaggio<\/strong><\/p>\n Ogni vera ricerca genera inevitabili sorprese, esiste infatti un\u2019abilit\u00e0, apparentemente pi\u00f9 semplice di quelle finora descritte, dal momento che per ognuno di noi \u00e8 molto naturale, che si \u00e8 rivelata invece come uno scoglio enormemente difficile da superare per una macchina, e che forse, proprio per questa ragione, pu\u00f2 essere considerata come una delle porte d\u2019accesso per comprendere l\u2019unicit\u00e0 dell\u2019intelligenza umana: la comprensione del linguaggio naturale (uno degli aspetti di ricerca indicati dalla \u201cProposta di Dartmouth\u201d 1955).<\/p>\n Perch\u00e9 solo noi<\/em>\u00a0\u00e8 il titolo di un saggio del 2016 di Noam Chomsky e Robert Berwick, in cui il padre della teoria della grammatica universale innata, insieme a Berwick, un linguista computazionale, spiegano l\u2019evoluzione del linguaggio e l\u2019origine della sintassi come qualit\u00e0 esclusivamente umana, non presente in altre specie animali e irriproducibile da parte di apparati artificiali. I problemi, per ora irrisolvibili, che i programmi di A.I. incontrano nella comprensione del linguaggio naturale, inclusi i sistemi pi\u00f9 avanzati (NLP Natural Language Processing<\/strong>) in questo settore, come il gi\u00e0 citato GTP-3, confermano questa ineliminabile distanza. L\u2019enorme difficolt\u00e0 che dimostrano nella comprensione di semplici elementi legati al senso comune: contestualizzare i significati, generalizzare e astrarre concetti, comunicare per analogie e metafore, comprendere doppi sensi, allusioni, ironia, ecc., aiutano a definire meglio alcune caratteristiche peculiari del linguaggio e dell\u2019intelligenza umana, ancora poco indagate, e, almeno per ora, non riproducibili. E tutto questo senza scomodare la capacit\u00e0 di comprendere le infinite sfumature della comunicazione emotiva, che molto spesso rappresentano il vero elemento discriminante per interpretare correttamente intenzionalit\u00e0 e reale significato di un messaggio. Ci\u00f2 che \u00e8 immediatamente chiaro per un bambino di pochi anni, si rivela tremendamente difficile per la macchina.<\/p>\n Alcune evidenze sperimentali aiutano a chiarire meglio questi aspetti. Andrea Moro, linguista e neuroscienziato allievo di Chomsky, spiega come tutti noi apprendiamo una lingua nei primi cinque anni di vita elaborando un campione di circa venticinque milioni di parole, mentre un esperimento in corso tutt\u2019oggi, con lavori pubblicati, dimostra che un sistema di A.I., anche se esposto a trenta miliardi di parole: \u201cnon riesce a convergere neanche a un frammento della grammatica cui converge un bambino\u201d. L\u2019analisi statistica, anche se supportata da enormi capacit\u00e0 di calcolo, non \u00e8 in grado di dedurre la struttura di una lingua naturale. Risultato che non dovrebbe apparire poi cos\u00ec strano, se si pensa che questi sistemi usano parole disconnesse da qualsiasi esperienza e di cui non conoscono il significato.\u00a0La macchina non sa che cosa sta facendo, opera in modo statistico<\/strong>, si limita, come afferma Judea Pearl, uno dei pionieri nell\u2019approccio probabilistico all\u2019A.I., ad applicare la sua gigantesca capacit\u00e0 di calcolo per: \u201ctrovare regolarit\u00e0 nascoste all\u2019interno di un enorme set di dati\u201d. \u00a0Affermazione che trova il consenso anche di altri esperti, convinti che si sia raggiunto un limite difficilmente superabile. Nonostante la quantit\u00e0 di dati, sempre crescente, che queste macchine riescono a elaborare, sistemi che operano sulla base di calcoli statistici, non riescono a compiere processi tipici dell\u2019intelligenza umana. La sfida appare pressoch\u00e9 impossibile anche dal lato \u201chardware\u201d, se guardiamo al cervello umano, con i suoi cento miliardi di neuroni e trilioni di sinapsi, ci rendiamo conto che nulla del genere \u00e8 stato mai nemmeno lontanamente costruito. Un siffatto apparato, poi, avrebbe bisogno di un livello di efficienza energetica di un miliardo di volte superiore ai migliori computer attuali, un traguardo tecnico irrealizzabile con le attuali tecnologie. Consumerebbe in ogni caso quantit\u00e0 enormi di energia, il nostro cervello riesce a farlo consumando circa 20 Watt.<\/p>\n Abili e consapevoli gestori di macchine straordinarie<\/strong><\/p>\n Arrivati a questo punto possiamo chiudere il cerchio. Nessuna intelligenza artificiale generale (AGI) si profila all\u2019orizzonte, possiamo dormire sonni tranquilli. La \u201csfida\u201d con l\u2019intelligenza umana appare rimandata a un tempo lontanissimo o forse per sempre. Le macchine, per quanto capaci di risultati straordinari, possono solo simulare alcuni aspetti dell\u2019intelligenza umana, ma simulare e comprendere sono due processi totalmente diversi, sarebbe grave non cogliere questa fondamentale distinzione: noi utilizziamo una sintassi di cui spesso non ricordiamo le regole, ma siamo consapevoli dei significati che stiamo elaborando. La macchina ha imparato ad usare un insieme di regole, ma ignora i significati che sta producendo. Affascinati dai risultati, rischiamo di dimenticare di chiederci attraverso quale processo sono stati realizzati, perdendo di vista, in questo modo, l\u2019essenza dell\u2019intelligenza umana: il pensiero cosciente.<\/p>\n Resta del tutto attuale, invece, l\u2019impatto che l\u2019Intelligenza Artificiale Limitata (sistemi capaci di altissima efficienza nella risoluzione di specifici problemi) potr\u00e0 creare in termini di perdita di posti di lavoro. Le previsioni mostrano dati spesso contrastanti, in particolar modo riguardo alla comparsa di nuove professioni. Molte persone, tuttavia, temono questo scenario immaginando di non riuscire a adattarsi a queste trasformazioni. Certo, non possiamo trasformarci in luddisti del terzo millennio, anche perch\u00e9 ormai \u00e8 tutto immateriale ci\u00f2 che dovremmo distruggere. Il vero problema \u00e8 sviluppare le competenze necessarie per poter gestire questi grandi cambiamenti e farlo con la giusta consapevolezza.<\/p>\n Una rinnovata consapevolezza che deve evolvere da una profonda comprensione della straordinaria unicit\u00e0 dell\u2019intelligenza umana, dove s\u2019intrecciano parole, idee, emozioni e sentimenti, dando vita a quell\u2019immenso mosaico che, proprio perch\u00e9 sfugge alla nostra comprensione, non \u00e8 ancora riproducibile. Il rischio di dimenticare tutto questo, e abbandonarci a una comoda e passiva dipendenza da macchine sempre pi\u00f9 potenti e capaci, \u00e8 reale. Gli etologi ci hanno insegnato che gli animali che trovano il cibo troppo facilmente, sviluppano una minore intelligenza. Per centinaia di migliaia di anni ci siamo evoluti risolvendo problemi e superando grandi difficolt\u00e0. Il mondo del lavoro e quello della scuola si trovano di fronte a una grande sfida per il futuro, si tratta solo di decidere se accettarla<\/p>\n","protected":false},"excerpt":{"rendered":" Massimo Berlingozzi \u2013 pubblicato su Persone e Conoscenze (ESTE) dicembre 2021 Ci vuole qualcosa di pi\u00f9 che l\u2019intelligenza per agire in modo intelligente (F\u00ebdor Dostoevskij) Il [\u2026]<\/span><\/p>\n","protected":false},"author":2,"featured_media":17097,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"_price":"","_stock":"","_tribe_ticket_header":"","_tribe_default_ticket_provider":"","_tribe_ticket_capacity":"0","_ticket_start_date":"","_ticket_end_date":"","_tribe_ticket_show_description":"","_tribe_ticket_show_not_going":false,"_tribe_ticket_use_global_stock":"","_tribe_ticket_global_stock_level":"","_global_stock_mode":"","_global_stock_cap":"","_tribe_rsvp_for_event":"","_tribe_ticket_going_count":"","_tribe_ticket_not_going_count":"","_tribe_tickets_list":[],"_tribe_ticket_has_attendee_info_fields":false,"footnotes":""},"categories":[65],"tags":[],"class_list":["post-18121","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-emozioni-en"],"acf":[],"yoast_head":"\n
\n<\/em>(F\u00ebdor Dostoevskij)<\/p>\ne<\/s>\u00a0hanno permesso ad Alpha Go, l\u2019Intelligenza Artificiale di Google DeepMind, di battere in pi\u00f9 partite i migliori giocatori al mondo di Go, l\u2019antico gioco cinese considerato pi\u00f9 complesso degli scacchi, spingendosi quindi ben oltre il risultato conseguito da Deep Blue di IBM nella leggendaria partita del 1997 contro Garry Kasparov. Ancor pi\u00f9 meraviglia hanno destato il computer AIVA, presentato a Vancouver da Pierre Barreau, che compone musica ispirandosi a Beethoven e, nel campo della pittura, il progetto \u201cThe Next Rembrandt\u201d, entrambi capaci di realizzazioni in grado di confondere gli esperti. Infine, nell\u2019ambito della scrittura, il nuovo generatore di linguaggio GPT-3 che, sfruttando processi di deep learning, \u00e8 capace di completare un articolo di giornale senza permettere al lettore di riuscire a distinguere il prodotto dell\u2019A.I. con l\u2019intero testo originale.<\/p>\n