ChatGPT può davvero pensare come un essere umano? Una domanda e risposta con l'A.I. Lo scienziato Dave Ferrucci

David Ferrucci

David Ferrucci, CEO e capo scienziato di Elemental Cognition.Per gentile concessione di David Ferrucci

L’intelligenza artificiale sta diventando intelligente rapidamente. Le recenti scoperte della tecnologia, che si manifestano nelle impressionanti capacità di applicazioni come ChatGPT, hanno suscitato il timore che l’A.I. potrebbe presto prendere il sopravvento sull’umanità, e non in senso positivo. L’anno scorso, un ingegnere di Google ha affermato che l’A.I. chatbot LaMDA era così intelligente da essere diventato senziente. Quest’anno, allarmato dal potenziale pericolo dell’A.I., un gruppo di oltre 1.000 imprenditori e accademici tecnologici, tra cui Elon Musk, a marzo ha chiesto una pausa di sei mesi nella formazione dell’A.I. sistemi più avanzati di GPT-4 di OpenAI, il modello linguistico più recente che alimenta ChatGPT.

Sebbene le applicazioni LLM (Large Language Model), come ChatGPT e Bard di Google, abbiano mostrato il potenziale per superare gli esseri umani in molti compiti e sostituire posti di lavoro, non sono affatto uguali al cervello umano perché i meccanismi di apprendimento sottostanti sono diversi, David Ferrucci, informatico e pioniere dell'A.I. commerciale. applicazione, ha detto a Starttracker.

Ferrucci è meglio conosciuto come il creatore di IBM Watson. Sviluppato alla fine degli anni 2000 per rispondere alle domande dei quiz televisivi Pericolo! , il sistema informatico alla fine ha battuto i concorrenti umani nel gioco nel 2011.

31 ottobre zodiaco

Quando il Pericolo! La sfida è stata proposta all'inizio del 2007, io sono stato l'unico all'interno dell'IBM Research, anche nella comunità accademica, a pensare che potesse essere realizzata e sostanzialmente ho aderito per portarla avanti, ha detto Ferrucci a Startracker in un'intervista.

Fondamentalmente, IBM Watson è un sistema basato sull'apprendimento automatico che ha imparato a rispondere Pericolo! domande digerendo grandi quantità di dati dagli spettacoli precedenti. È uscito in un momento in cui il deep learning, un sottoinsieme dell’intelligenza artificiale, stava iniziando a prendere piede. Prima di allora, i sistemi informatici facevano molto affidamento sulla programmazione e sulla supervisione umana.

Nel 2012, poco dopo il successo di Watson, Ferrucci lasciò IBM dopo 18 anni per guidare A.I. ricerca per Bridgewater Associates, il più grande hedge fund del mondo. Per gran parte dell’ultimo decennio, il lavoro di Ferrucci si è concentrato sullo sviluppo di un’intelligenza artificiale ibrida, che cerca di combinare l’apprendimento automatico basato sui dati con il ragionamento logico, in altre parole, per addestrare gli algoritmi a pensare più come gli esseri umani.

Zodiaco del 29 settembre

Nel 2015, Bridgewater ha finanziato un progetto interno guidato da Ferrucci che alla fine si è trasformato in una società indipendente chiamata Elemental Cognition. L'A.I. ibrida di Elemental Cognition le applicazioni possono essere utilizzate nella gestione degli investimenti, nella pianificazione logistica e nella scoperta di farmaci, secondo il suo sito web. A febbraio, la startup ha firmato con Bridgewater come cliente.

In un'intervista con Startracker all'inizio di questo mese, Ferruci ha discusso dei diversi processi di apprendimento di ChatGPT e del cervello umano, della necessità di un'I.A. ibrida e del motivo per cui ritiene che la proposta per un'I.A. la pausa è più simbolica che pratica.

La seguente trascrizione è stata modificata per chiarezza.

Cos’è esattamente l’IA ibrida?

L’intelligenza artificiale ibrida combina un processo induttivo basato sui dati con un processo basato sulla logica. L’apprendimento automatico è un processo basato sui dati. Le cose miglioreranno solo con la disponibilità di sempre più dati di allenamento. Ma per comunicare con gli esseri umani servono anche logica e ragionamento.

La cognizione umana funziona più o meno allo stesso modo, come spiegato nel libro di Daniel Kahneman Pensare, veloce e lento. Il cervello umano funziona pensando velocemente e lentamente allo stesso tempo. Per ottenere un processo decisionale preciso e affidabile, è necessario il meglio di entrambi i mondi.

In che modo il pensiero veloce è diverso dal pensiero lento? Perché abbiamo bisogno di entrambi?

Il pensiero veloce è quando estrapoliamo dalla nostra esperienza, o dai dati, e poi generalizziamo. La generalizzazione può essere sbagliata, tuttavia, perché si basa su caratteristiche superficiali che potrebbero essere correlate nei dati, ma non sono realmente causali: questo è il fondamento del pensiero pregiudizievole.

Il pensiero lento consiste nel formulare un modello di come penso che funzionino le cose: quali sono i miei valori? Quali sono le mie ipotesi? Quali sono le mie regole di inferenza? E qual è la mia logica per trarre una conclusione?

segno zodiacale 29 dicembre

Quando parliamo di A.I. oggi tendiamo a pensare automaticamente all’apprendimento automatico che, come hai detto, è un processo basato sui dati. Esistono esempi reali di intelligenza artificiale puramente logica?

Sì, l'A.I. guidata dalla logica è stato assimilato in molte applicazioni del mondo reale. Rappresentazioni formali della logica della risoluzione dei problemi, come i sistemi basati su regole o i sistemi di risoluzione dei vincoli e di ottimizzazione, vengono utilizzati per applicazioni di gestione delle risorse, pianificazione, pianificazione, controllo ed esecuzione.

Ma non li consideriamo come A.I. più, soprattutto perché, con la rivoluzione dei big data e dell’apprendimento automatico, l’A.I. è diventato fortemente associato ai sistemi di apprendimento automatico.

Dove si collocano gli LLM come GPT e LaMDA nello spettro del pensiero veloce/lento? Sono davvero vicini all’intelligenza umana, come ha affermato l’anno scorso un ingegnere di Google?

Gli LLM producono grandi strutture di dati che catturano le probabilità statistiche di determinate sequenze di parole che seguono altre sequenze di parole. Ciò che fa ChatGPT sono previsioni statistiche basate sulle caratteristiche superficiali del linguaggio. Con dati di addestramento sufficienti e tecniche di apprendimento automatico davvero potenti, questi modelli possono imitare un linguaggio dal suono fluente.

22 settembre astrologia

Non è un ragionamento logico. È difficile sostenere che una grande tabella delle probabilità sia senziente. Direi di no. Tuttavia, una cosa interessante della cognizione umana è che confondiamo testi dal suono coerente con i fatti. Siamo tipo, sembra davvero bello, deve essere vero. Ma la verità richiede una comprensione e un’analisi più profonde che vanno oltre le caratteristiche superficiali del linguaggio.

Sei nervoso per l'A.I. alla fine superare in astuzia gli umani?

A.I. possono svolgere determinati compiti meglio degli esseri umani. È vero da anni. Oggi, con il miglioramento dei dati e delle tecniche di addestramento, è sempre più facile addestrare l’A.I. sistemi per svolgere più compiti umani. Penso che sia molto significativo. Ma non penso che l’A.I. prenderà il sopravvento. Non esiste un’entità indipendente che voglia conquistarti. Tuttavia, l'A.I. può essere facilmente abusato. Penso che sia una vera preoccupazione.

Elemental Cognition ha recentemente firmato come cliente Bridgewater, che è anche uno dei primi investitori nella vostra azienda. In che modo l'I.A. ibrida può aiutare i gestori degli investimenti a comprendere meglio l’economia e i mercati?

La comprensione dell’economia può avvenire in due modi: identificare modelli nei dati e interpretarli per capire cosa sta succedendo.

Nella gestione degli investimenti, l’obiettivo finale è quello di fare previsioni accurate guardando gli indicatori economici, come i tassi di interesse e i prezzi delle azioni. I dati hanno molto da dirti. Se potessi vedere modelli nei dati, sarebbe davvero potente. E se riesci a interpretare i modelli e a dare un senso a ciò che sta accadendo nell’economia, allora hai un’altra prospettiva. È quasi come se potessi fare controlli e bilanciamenti: ecco le correlazioni mostrate nei dati, ed ecco la mia comprensione di come funzionano le cose. Sono d'accordo o no?

Cosa ne pensi della proposta di mettere in pausa l'A.I. allenamento per sei mesi?

Non penso che sia pratico iniziare, perché i modelli linguistici di grandi dimensioni non sono un segreto. Ci saranno sempre aziende che ci lavoreranno. Continueremo a vedere molti esperimenti. Non penso che abbia senso fermare quella sperimentazione.

Ma penso che sia logico fare un passo indietro e riflettere attentamente su questo. I politici devono iniziare a pensare a come regolamentare l’A.I. perché se ne può abusare in molti modi. Probabilmente vedremo lo sviluppo e l’applicazione della regolamentazione.