L’intelligenza artificiale, o AI, è una tecnologia che consente a computer e macchine di simulare l’intelligenza umana e le capacità di risoluzione dei problemi.
Da sola o combinata con altre tecnologie (ad esempio sensori, geolocalizzazione, robotica) l’intelligenza artificiale può eseguire compiti che altrimenti richiederebbero l’intelligenza o l’intervento umano. Assistenti digitali, guida GPS, veicoli autonomi e strumenti di intelligenza artificiale generativa (come Chat GPT di Open AI) sono solo alcuni esempi di intelligenza artificiale nelle notizie quotidiane e nella nostra vita quotidiana.
In quanto campo dell’informatica, l’intelligenza artificiale comprende (ed è spesso menzionata insieme a) l’apprendimento automatico e il deep learning. Queste discipline comportano lo sviluppo di algoritmi di intelligenza artificiale, modellati sui processi decisionali del cervello umano, che possono “imparare” dai dati disponibili ed effettuare classificazioni o previsioni sempre più accurate nel tempo.
L’intelligenza artificiale ha attraversato molti cicli di hype, ma anche per gli scettici il rilascio di ChatGPT sembra segnare un punto di svolta. L’ultima volta che l’intelligenza artificiale generativa si è profilata così grande, le scoperte sono state nella visione artificiale, ma ora il balzo in avanti è nell’elaborazione del linguaggio naturale (PNL). Oggi, l’intelligenza artificiale generativa può apprendere e sintetizzare non solo il linguaggio umano ma anche altri tipi di dati, tra cui immagini, video, codice software e persino strutture molecolari.
Le applicazioni per l’intelligenza artificiale crescono ogni giorno. Ma man mano che l’hype sull’uso degli strumenti di intelligenza artificiale negli affari decolla, le conversazioni sull’etica dell’intelligenza artificiale e sull’intelligenza artificiale responsabile diventano di fondamentale importanza. Per ulteriori informazioni sulla posizione di IBM su questi temi, leggi Costruire la fiducia nell’intelligenza artificiale.
Tipi di intelligenza artificiale: IA debole vs IA forte
L’intelligenza artificiale debole, nota anche come intelligenza artificiale ristretta o intelligenza artificiale ristretta (ANI), è un’intelligenza artificiale addestrata e focalizzata per eseguire compiti specifici. L’intelligenza artificiale debole guida la maggior parte dell’intelligenza artificiale che ci circonda oggi. “Narrow” potrebbe essere un descrittore più appropriato per questo tipo di intelligenza artificiale in quanto è tutt’altro che debole: consente alcune applicazioni molto robuste, come Siri di Apple, Alexa di Amazon, IBM watsonx™ e veicoli a guida autonoma.
L’intelligenza artificiale forte è composta da intelligenza generale artificiale (AGI) e super intelligenza artificiale (ASI). L’AGI, o intelligenza artificiale generale, è una forma teorica di intelligenza artificiale in cui una macchina avrebbe un’intelligenza pari a quella umana; sarebbe autocosciente con una coscienza che avrebbe la capacità di risolvere problemi, apprendere e pianificare il futuro. L’ASI, nota anche come superintelligenza, supererebbe l’intelligenza e la capacità del cervello umano. Sebbene l’intelligenza artificiale forte sia ancora del tutto teorica e senza esempi pratici in uso oggi, ciò non significa che i ricercatori sull’intelligenza artificiale non stiano esplorando anche il suo sviluppo. Nel frattempo, i migliori esempi di ASI potrebbero provenire dalla fantascienza, come HAL, il sovrumano e assistente informatico canaglia in 2001: Odissea nello spazio.
Apprendimento profondo e apprendimento automatico
L’apprendimento automatico e l’apprendimento profondo sono sotto-discipline dell’intelligenza artificiale e l’apprendimento profondo è una sotto-disciplina dell’apprendimento automatico.
Sia gli algoritmi di machine learning che quelli di deep learning utilizzano le reti neurali per “imparare” da enormi quantità di dati. Queste reti neurali sono strutture programmatiche modellate sui processi decisionali del cervello umano. Sono costituiti da strati di nodi interconnessi che estraggono caratteristiche dai dati e fanno previsioni su ciò che i dati rappresentano.
L’apprendimento automatico e l’apprendimento profondo differiscono per il tipo di reti neurali utilizzate e per la quantità di intervento umano coinvolto. Gli algoritmi classici di machine learning utilizzano reti neurali con uno strato di input, uno o due strati “nascosti” e uno strato di output. In genere, questi algoritmi sono limitati all’apprendimento supervisionato: i dati devono essere strutturati o etichettati da esperti umani per consentire all’algoritmo di estrarre funzionalità dai dati.
Gli algoritmi di deep learning utilizzano reti neurali profonde, reti composte da uno strato di input, tre o più (ma solitamente centinaia) di strati nascosti e un layout di output. Questi livelli multipli consentono l’apprendimento non supervisionato: automatizzano l’estrazione di funzionalità da set di dati di grandi dimensioni, senza etichetta e non strutturati. Poiché non richiede l’intervento umano, il deep learning consente essenzialmente l’apprendimento automatico su larga scala.
L’ascesa dei modelli generativi
L’intelligenza artificiale generativa si riferisce a modelli di deep learning che possono prendere dati grezzi – ad esempio, tutta Wikipedia o la raccolta di opere di Rembrandt – e “imparare” a generare risultati statisticamente probabili quando richiesto. Ad alto livello, i modelli generativi codificano una rappresentazione semplificata dei dati di addestramento e ne traggono ispirazione per creare un nuovo lavoro simile, ma non identico, ai dati originali.
I modelli generativi sono utilizzati da anni in statistica per analizzare dati numerici. L’avvento del deep learning, tuttavia, ha reso possibile estenderlo a immagini, parlato e altri tipi di dati complessi. Tra la prima classe di modelli di intelligenza artificiale a raggiungere questa impresa incrociata c’erano gli autoencoder variazionali, o VAE, introdotti nel 2013. I VAE sono stati i primi modelli di deep learning ad essere ampiamente utilizzati per generare i
maghi e parole.
“I VAE hanno aperto le porte alla modellazione generativa profonda rendendo i modelli più facili da scalare”, ha affermato Akash Srivastava, esperto di intelligenza artificiale generativa presso il Watson AI Lab del MIT-IBM. “Gran parte di ciò che oggi consideriamo AI generativa è iniziata qui”.
I primi esempi di modelli, tra cui GPT-3, BERT o DALL-E 2, hanno mostrato cosa è possibile fare. In futuro, i modelli verranno addestrati su un ampio insieme di dati non etichettati che potranno essere utilizzati per compiti diversi, con una messa a punto minima. I sistemi che eseguono attività specifiche in un singolo dominio stanno lasciando il posto a sistemi di intelligenza artificiale più ampi che apprendono in modo più generale e funzionano su più domini e problemi. I modelli di base, formati su set di dati di grandi dimensioni e senza etichetta e ottimizzati per una serie di applicazioni, stanno guidando questo cambiamento.
Per quanto riguarda il futuro dell’intelligenza artificiale, quando si tratta di intelligenza artificiale generativa, si prevede che i modelli di base accelereranno notevolmente l’adozione dell’intelligenza artificiale nelle imprese. La riduzione dei requisiti di etichettatura renderà molto più semplice per le aziende immergersi in questo settore, e l’automazione altamente precisa ed efficiente basata sull’intelligenza artificiale che essi consentono significherà che molte più aziende saranno in grado di implementare l’intelligenza artificiale in una gamma più ampia di situazioni mission-critical. Per IBM, la speranza è che la potenza di calcolo dei modelli di base possa finalmente essere portata a ogni azienda in un ambiente cloud ibrido senza attriti.
Esplora i modelli di fondazione su watsonx.ai
Applicazioni dell’intelligenza artificiale
Oggi esistono numerose applicazioni nel mondo reale per i sistemi di intelligenza artificiale. Di seguito sono riportati alcuni dei casi d’uso più comuni:
Riconoscimento vocale
Conosciuto anche come riconoscimento vocale automatico (ASR), riconoscimento vocale del computer o riconoscimento vocale in testo, il riconoscimento vocale utilizza la PNL per elaborare il parlato umano in un formato scritto. Molti dispositivi mobili incorporano il riconoscimento vocale nei loro sistemi per condurre ricerche vocali – Siri, ad esempio – o fornire maggiore accessibilità agli SMS in inglese o in molte lingue ampiamente utilizzate. Scopri come Don Johnston ha utilizzato IBM Watson Text to Speech per migliorare l’accessibilità in classe con il nostro case study.
Assistenza clienti
Gli agenti virtuali e i chatbot online stanno sostituendo gli agenti umani lungo il percorso del cliente. Rispondono alle domande più frequenti (FAQ) su argomenti come la spedizione o forniscono consigli personalizzati, prodotti di cross-selling o suggerendo taglie per gli utenti, cambiando il modo in cui pensiamo al coinvolgimento dei clienti su siti Web e piattaforme di social media. Gli esempi includono bot di messaggistica su siti di e-commerce con agenti virtuali, app di messaggistica come Slack e Facebook Messenger e attività solitamente svolte da assistenti virtuali e assistenti vocali. Scopri come Autodesk Inc. ha utilizzato IBM Watsonx Assistant per accelerare i tempi di risposta dei clienti del 99% con il nostro case study.
Visione computerizzata
Questa tecnologia AI consente a computer e sistemi di ricavare informazioni significative da immagini digitali, video e altri input visivi e, sulla base di tali input, di agire. Questa capacità di fornire consigli lo distingue dalle attività di riconoscimento delle immagini. Alimentata da reti neurali convoluzionali, la visione artificiale trova applicazioni nel tagging delle foto nei social media, nell’imaging radiologico nel settore sanitario e nelle auto a guida autonoma nell’industria automobilistica. Scopri come ProMare ha utilizzato IBM Maximo per impostare un nuovo corso per la ricerca sugli oceani con il nostro case study.
Catena di fornitura
La robotica adattiva agisce sulle informazioni dei dispositivi Internet of Things (IoT) e sui dati strutturati e non strutturati per prendere decisioni autonome. Gli strumenti della PNL possono comprendere il linguaggio umano e reagire a ciò che viene loro detto. L’analisi predittiva viene applicata alla reattività della domanda, all’ottimizzazione delle scorte e della rete, alla manutenzione preventiva e alla produzione digitale. Gli algoritmi di ricerca e riconoscimento dei modelli, che non sono più solo predittivi, ma gerarchici, analizzano i dati in tempo reale, aiutando le catene di fornitura a reagire all’intelligenza aumentata generata dalle macchine, fornendo al contempo visibilità e trasparenza immediate. Scopri come Hendrickson ha utilizzato IBM Sterling per alimentare transazioni in tempo reale con il nostro case study.
Previsioni del tempo
I modelli meteorologici su cui le emittenti fanno affidamento per effettuare previsioni accurate sono costituiti da algoritmi complessi eseguiti su supercomputer. Le tecniche di apprendimento automatico migliorano questi modelli rendendoli più applicabili e precisi. Scopri come Emnotion ha utilizzato IBM Cloud per consentire alle aziende sensibili alle condizioni meteorologiche di prendere decisioni più proattive e basate sui dati con il nostro case study.
Rilevamento anomalie
I modelli di intelligenza artificiale possono analizzare grandi quantità di dati e scoprire punti dati atipici all’interno di un set di dati. Queste anomalie possono aumentare la consapevolezza riguardo ad apparecchiature difettose, errori umani o violazioni della sicurezza. Scopri come Netox ha utilizzato IBM QRadar per proteggere le aziende digitali dalle minacce informatiche con il nostro case study.
Storia dell’intelligenza artificiale: date e nomi chiave
L’idea di “una macchina che pensa” risale all’antica Grecia. Ma dall’avvento del calcolo elettronico (e relativamente ad alcuni degli argomenti trattati in questo articolo) sono avvenuti eventi e pietre miliari importanti nell’evoluzione dell’intelligenza artificiale
includere quanto segue:
1950: Alan Turing pubblica Computing Machinery and Intelligence (link esterno a ibm.com). In questo articolo, Turing, famoso per aver decifrato il codice tedesco ENIGMA durante la seconda guerra mondiale e spesso definito il “padre dell’informatica”, pone la seguente domanda: “Le macchine possono pensare?” Da lì, offre un test, ora noto come “Test di Turing”, in cui un interrogatore umano proverebbe a distinguere tra una risposta testuale del computer e una umana. Sebbene questo test sia stato sottoposto a un attento esame da quando è stato pubblicato, rimane una parte importante della storia dell’intelligenza artificiale, nonché un concetto in corso all’interno della filosofia poiché utilizza idee sulla linguistica.
1956: John McCarthy conia il termine “intelligenza artificiale” alla prima conferenza sull’intelligenza artificiale al Dartmouth College. (McCarthy avrebbe continuato a inventare il linguaggio Lisp.) Più tardi quell’anno, Allen Newell, J.C. Shaw e Herbert Simon creano Logic Theorist, il primo programma software di intelligenza artificiale in assoluto.
1967: Frank Rosenblatt costruisce il Mark 1 Perceptron, il primo computer basato su una rete neurale che “impara” attraverso tentativi ed errori. Solo un anno dopo, Marvin Minsky e Seymour Papert pubblicano un libro intitolato Perceptrons, che diventa sia il lavoro fondamentale sulle reti neurali sia, almeno per un po’, un argomento contro i futuri progetti di ricerca sulle reti neurali.
Anni ’80: le reti neurali che utilizzano un algoritmo di backpropagation per addestrarsi diventano ampiamente utilizzate nelle applicazioni di intelligenza artificiale.
1995: Stuart Russell e Peter Norvig pubblicano Artificial Intelligence: A Modern Approach (link esterno a ibm.com), che diventa uno dei principali libri di testo nello studio dell’intelligenza artificiale. In esso, approfondiscono quattro potenziali obiettivi o definizioni di intelligenza artificiale, che differenziano i sistemi informatici sulla base della razionalità e del pensiero rispetto all’azione.
1997: Deep Blue dell’IBM batte l’allora campione del mondo di scacchi Garry Kasparov, in una partita a scacchi (e rivincita).
2004: John McCarthy scrive un articolo, Che cos’è l’intelligenza artificiale? (link esterno a ibm.com) e propone una definizione di intelligenza artificiale spesso citata.
2011: IBM Watson batte i campioni Ken Jennings e Brad Rutter a Jeopardy!
2015: il supercomputer Minwa di Baidu utilizza un tipo speciale di rete neurale profonda chiamata rete neurale convoluzionale per identificare e classificare le immagini con un tasso di precisione più elevato rispetto all’essere umano medio.
2016: il programma AlphaGo di DeepMind, alimentato da una rete neurale profonda, batte Lee Sodol, il campione del mondo di Go, in una partita di cinque partite. La vittoria è significativa visto l’enorme numero di mosse possibili man mano che il gioco procede (oltre 14,5 trilioni dopo sole quattro mosse!). Successivamente, Google ha acquistato DeepMind per una cifra stimata di 400 milioni di dollari.
2023: l’aumento dei modelli linguistici di grandi dimensioni, o LLM, come ChatGPT, crea un
enorme cambiamento nelle prestazioni dell’intelligenza artificiale e nel suo potenziale di generare valore aziendale. Con queste nuove pratiche di intelligenza artificiale generativa, i modelli di deep learning possono essere pre-addestrati su grandi quantità di dati grezzi e senza etichetta.
Soluzioni correlate
Soluzioni di Intelligenza Artificiale (AI).
Metti l’intelligenza artificiale al servizio del tuo business con l’esperienza AI leader del settore e il portafoglio di soluzioni IBM al tuo fianco.
Esplora le soluzioni di intelligenza artificiale
Servizi di intelligenza artificiale
Reinventa flussi di lavoro e operazioni critici aggiungendo l’intelligenza artificiale per massimizzare le esperienze, il processo decisionale in tempo reale e il valore aziendale.
Esplora i servizi di intelligenza artificiale
L’intelligenza artificiale per la sicurezza informatica
L’intelligenza artificiale sta cambiando le regole del gioco per la sicurezza informatica, analizzando enormi quantità di dati sui rischi per accelerare i tempi di risposta e aumentare le operazioni di sicurezza con risorse insufficienti.
Esplora l’intelligenza artificiale per la sicurezza informatica
Risorse
EbookCome scegliere il giusto modello di base per l’AI
Scopri come utilizzare il framework di selezione del modello per selezionare il modello di base per le tue esigenze aziendali.
FormazioneRisparmia fino al 70% con il nostro abbonamento all’apprendimento digitale
Accedi al nostro catalogo completo di oltre 100 corsi online acquistando oggi stesso un abbonamento di apprendimento digitale individuale o multiutente, che ti consentirà di espandere le tue competenze su una gamma di nostri prodotti a un prezzo conveniente.
Ricerche di mercato2023 Gartner Peer Insights Scelta dei clienti
IBM Watsonx Assistant riconosciuto come Customers’ Choice nel report Gartner Peer Insights Voice of the Customer 2023 per le piattaforme Enterprise Conversational AI
ArticoloStrategia di procurement potenziata dall’intelligenza artificiale
Scopri come il machine learning può prevedere la domanda e ridurre i costi.
Recent Comments