Registrato: 24/12/21 10:59 Messaggi: 6378 Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?
Inviato: 14 Giu 2025 09:49 Oggetto:
Citazione:
i risultati non fanno altro che confermare
che le IA e noi siamo ancora troppo acerbi le une per gli altri.
Questo mi ricorda che, da ragazzo, su certi fumetti della Marvel Comics trovavo a volte delle storielle "argute" sul modello di Ai confini della realtà; in una di esse, uno scienziato incredibilmente egocentrico e convinto della propria innegabile intelligenza sfrutta le proprie conoscenze per lasciare la Terra e raggiungere un pianeta i cui abitanti, ritiene, saranno degni del suo valore. Ma gli stessi si rivelano incredibilmente superiori, e lo scienziato finisce i suoi giorni nel loro zoo, in gabbia con la targa "ritardato". Sì, il politically correct era ben lontano.
"Gli autori dello studio concludono che i modelli attuali di intelligenza artificiale, pur mostrando capacità in compiti specifici, non eseguono un vero ragionamento logico, ma si affidano a un riconoscimento di schemi probabilistici."
Questa cosa mi lascia perplesso non poco (cito da ChatGPT): "un LLM (Large Language Model) è un modello matematico basato su reti neurali profonde, addestrato su grandi quantità di testo per prevedere la parola (o token) successiva in una sequenza. Usa distribuzioni di probabilità per assegnare un peso a ogni possibile continuazione, scegliendo quella più probabile in base al contesto; alla base c’è l'ottimizzazione di funzioni di perdita, come la cross-entropy, per affinare la previsione linguistica".
Alla luce di questo, non capisco l'affermazione degli autori dello studio.
A mio parere è meglio non mettere un limite a quello che le IA riusciranno ad 'essere' in futuro.
Se la coscienza è il risultato di una enorme quantità di collegamenti fra una enorme quantità di neuroni, presto o tardi anche il silicio (o quant'altro) acquisterà coscienza.
Se invece, come dicono le religioni, c'è un soffio divino che anima i viventi, allora non dovremo preoccuparci.
Si dovranno preoccupare le IA, invece, perché il mondo è pieno di fanatici di ogni genere, specialmente religiosi, che non vedono l'ora di dare sfogo alle proprie patologie, e se così sarà, la vedo non troppo bene...
Spiegato in questo modo il funzionamento delle cosiddette IA è piuttosto chiaro: data una grande quantità di dati viene costruito un modello statistico che in base agli input replica con i dati statistici più rilevanti.
Ma, e questo lo studio sembra chiarirlo in modo definitivo, sono risposte statisticamente valide, non corrette.
Probabilmente dovrebbero studiare un funzionamento in parallelo di più IA: una che trova le somiglianze e una che calcola la risposta statistica più corretta e un'altra per valuare la probabile corrispondenza con l'input iniziale.
Dico questo da profano: immagino che ci abbiamo già pensato.
Il mio dubbio, è che abbiano programmato queste IA in un modo "superficiale" e che non ne comprendano davvero il funzionamento.
Ho letto altre notizie di IA che interpretango i comandi e arrivano a negarli. Questo significa, a mio modesto avviso, che il codice di base è un bel buco nero di cui nessuno conosce davvero il funzionamento.
@ ilio
riguardo al fatto che le IA possano raggiungere un livello di autocoscienza, credo che la questione sia piuttosto cosa intendiamo per autocoscienza.
Gli animali e persino gli insetti hanno quello che chiamiamo istinto di conservazione. Ma per conservarsi, qualcuno deve prima avere coscienza di sè.
Anche le piante reagiscono a ciò che accade attorno a loro, anche se non le tocca direttamente.
Non credo quindi che l'autocoscienza dipenda dalla quantità di dati o dal numero delle connessioni.
Naturalmente questa è solo la mia opinione.
Che le cosiddette "intelligenze artificiali" non siano per davvero intelligenti è qualcosa di cui tutti dovremmo ormai essere coscienti.
Deduco da ciò che l'autore, se sa che le cosiddette "intelligenze artificiali" non sono veramente intelligenti, saprà allora cos'è l'intelligenza e come definirla.
Sarebbe utile ci illuminasse, in quanto noi popolo di bruti, ancora non lo sappiamo.
Intendo, veramente non esiste una definizione di intelligenza.. pure tra gli addetti ai lavori delle varie discipline in cui è coinvolta (neuropsicologia ed AI).
Già solo questo dovrebbe far riflettere sulla qualità di ciò che segue.
Semplificando all'estremo (ed anche in maniera un po' scorretta) che un LLM operi sostanzialmente come un motore di ricerca (semantico) sotto steroidi, e non come un cervello umano è cosa che mi appare abbastanza evidente/nota (per non dire scontata).
Ma come a mio avviso c'è "intelligenza" in un algoritmo che "stupidamente" usi l'algoritmo min-max per giocare a scacchi (o qualche variante dello stesso più "furba"), allo stesso modo c'è intelligenza in un LLM.
Come c'è "intelligenza" nei cari vecchi algoritmi di Google (catene di Markov), allo stesso modo c'è in Chat GPT et similia.
Non perché io sappia o posso definire cos'è l'Intelligenza (come sembra poter e saper fare l'autore), ma proprio perché per via della mia riconosciuta inabililta a fare ciò, mi limito a considerare "intelligenza" le capacità (empiricamente verificabile) a svolgere alcuni compiti (per quanto limitati).
Che poi è l'unico sistema che ad oggi abbiamo a disposizione, per misurare l' "intelligenza" (si pensi a come viene valutato il QI).
Aprire un dibattito scientifico/filosofico e/o commentare qualitativamente, qualcosa che non può neppure essere definito (figuriamoci misurato), mostra a mio avviso i limiti di quest' articolo; che ritengo abbia travisato il senso dello studio che cita.
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi