Precedente :: Successivo |
Autore |
Messaggio |
Zeus News Ospite
|
Inviato: 11 Set 2025 17:00 Oggetto: Possiamo vivere con computer che sbagliano? |
|
|
Leggi l'articolo Possiamo vivere con computer che sbagliano?
Cassandra Crossing/ L'introduzione forzata di LLM in tutti i settori dell'informatica, che la finanza rende obbligatoria, ha fatto una importante vittima: la fiducia nelle risposte dei computer. Ma possiamo conviverci senza perderci in un mondo fatto di allucinazioni ed errori?
Segnala un refuso |
|
Top |
|
 |
zeross Amministratore


Registrato: 19/11/08 12:04 Messaggi: 8503 Residenza: Atlantica
|
Inviato: 11 Set 2025 17:24 Oggetto: |
|
|
Citazione: | Perdita generalizzata di capacità mentali, di iniziativa e di competenza, a partire dai professionisti e dai ricercatori |
Questo avviene già senza il bisogno dele IA LLM, secondo le testate giornalistiche una alta percentuale di Laureati non riesce a comprendere il testo che legge.
Al massimo le IA LLM possono occuparsi del resto.
Per quanto riguarda l'attesa sulla esattezza delle risposte da parte di una macchina, la macchina stessa esiste e viene costruita proprio per dare risposte; se non è in grado di dare risposte accurate o viene riparata o viene buttata.
Non esistono alternative. |
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 11 Set 2025 19:35 Oggetto: |
|
|
@calamarim devo ribadire, che trovo discutibile che lei si ostini a definire gli LLM false intelligenze artificiali.
Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
Io mi immagino un ecologista super convinto, che definisca le automobili diesel dei falsi mezzi di trasporto.. sarebbe paradossale..
Per cui le chiedo, proprio per preservare l'integrità dell'infosfera, non si costruisca definizioni di sua sponte, in contravvenzione di quanto convenzionalmente accettato.
Si attenga alle definizioni.
Personalmente, in caso di dubbi trovo utile avvalermi di strumenti quali dizionari o enciclopedie, mi permetto quindi di condividerle un link: link
Altrimenti credo possa correre il rischio, di smentirsi con il suo stesso esempio, inficiando così la sua tesi.
Dopotutto se gli scivoloni in un articolo (purtroppo comuni oggigiorno) non causano sfracelli nell' infosfera, perché mai dovrebbe causarli un LLM con le sue allucinazioni? |
|
Top |
|
 |
777omega777 Mortale pio

Registrato: 22/07/13 15:24 Messaggi: 15
|
Inviato: 12 Set 2025 08:42 Oggetto: |
|
|
{UtenteAnonimo} ha scritto: | Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
|
Per convenzione l'effetto Dunning-Kruger è l'avere chi si informa da wikipedia che pensa di saperne di più del laureato con la laurea specialistica con vent'anni d'esperienza in un dato campo. Ma quello non è il vero effetto Dunning-Kruger, ma un'invenzione giornalistica (Come lo è il chiamare i LLM con il nome di Intelligenza Artificiale.) che si è diffusa parecchio su internet.
Correggere e riportare i termini al loro significato originario non mi pare che sia una pratica da criticare, se il mondo sbaglia si può dire che il mondo sta sbagliando, non ti devi adeguare necessariamente alla maggioranza.
E ci sono una miriade di esempi di questo tipo.
Per dirne una manciata alla veloce: Questione GNU/Linux, Woke, Programmazione a Oggetti, Web 3.0/3 (Che son due cose molto diverse.), Paradosso di Popper...
Quindi, sul serio, impariamo (E questo riguarda molto l'analfabetismo funzionale.) ad adattarci al discorsi che abbiamo davanti? Invece di lamentarci del nulla? Per di più di chi ha ragione perché non si adegua alla maggioranza? A un'invenzione giornalistica. |
|
Top |
|
 |
calamarim Eroe in grazia degli dei

Registrato: 21/07/17 09:28 Messaggi: 133
|
Inviato: 12 Set 2025 09:38 Oggetto: |
|
|
{UtenteAnonimo} ha scritto: | @calamarim devo ribadire, che trovo discutibile che lei si ostini a definire gli LLM false intelligenze artificiali.
Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
Io mi immagino un ecologista super convinto, che definisca le automobili diesel dei falsi mezzi di trasporto.. sarebbe paradossale..
Per cui le chiedo, proprio per preservare l'integrità dell'infosfera, non si costruisca definizioni di sua sponte, in contravvenzione di quanto convenzionalmente accettato.
Si attenga alle definizioni.
Personalmente, in caso di dubbi trovo utile avvalermi di strumenti quali dizionari o enciclopedie, mi permetto quindi di condividerle un link: link
Altrimenti credo possa correre il rischio, di smentirsi con il suo stesso esempio, inficiando così la sua tesi.
Dopotutto se gli scivoloni in un articolo (purtroppo comuni oggigiorno) non causano sfracelli nell' infosfera, perché mai dovrebbe causarli un LLM con le sue allucinazioni? |
Salve,
certamente le opinioni, per quanto motivate da fatti, non da definizioni, sono sempre discutibili, ci mancherebbe.
Detto questo, no, non mi preoccupo minimamente (e ci mancherebbe, dato il mio ruolo di profetessa di sventura!) di andare controcorrente e non accettare definizioni.
Accetto solo prove scientifiche sottoposte a peer-review, oppure dimostrazioni di falle dei miei "ragionamenti.
E la salute dell'infosfera nemmeno mi preoccupa, perché ritengo che i miei piccoli contributi la migliorino, o comunque non la peggiorino certamente.
La ringrazio quindi dei suoi suggerimenti, che ovviamente non seguirò.
Buona giornata. |
|
Top |
|
 |
{Franz} Ospite
|
Inviato: 12 Set 2025 11:06 Oggetto: |
|
|
Quindi vorrei capire, secondo il partecipante anonimo, come potrebbe fare Marco Calamari per trasmettere i concetto che i LLM non sono da intendersi come qualcosa di intelligente e di cui fidarsi, cosa che la maggior parte delle persone fa. I LLM sono sì da considerarsi IA, ma come tutte le IA sono passibili di allucinazioni ed anzi, dato che correlano tra loro molte informazioni in caso di richieste complesse, la probabilità di generare allucinazioni è molto alta. Mi è capitato moltissime volte di ricevere risposte allucinate da ChatGPT e Copilot, che sono riuscito a smascherare dopo ulteriori richieste di chiarimenti, ma se mi fossi fermato alla prima risposta, sarebbe stato un grosso problema. Se gli utenti cominciano a generare documenti in questo modo e li salvano nell'infosfera, ben presto ci troveremo pieni di documenti inquinati da allucinazioni. Quindi credo che l'articolo sia molto pertinente, perché qui non si sta parlando di chiedere all'IA di generare pezzi di codice, cosa che in genere sa fare benissimo, ma si sta parlando di utilizzarle in qualsiasi contesto come soluzione ad ogni problema. Mi è anche capitato che l'IA mi abbia fornito dei riferimenti a fonti che poi non esistevano, che aveva inventato da sé, cosa molto grave! Quindi non vedo dove sia il problema in quanto scritto dal bravissimo Marco. |
|
Top |
|
 |
amldc Dio maturo

Registrato: 02/05/06 17:21 Messaggi: 1431
|
Inviato: 12 Set 2025 11:49 Oggetto: |
|
|
{UtenteAnonimo} ha scritto: |
Si lamenta delle allucinazioni degli LLM ma questo non è tanto differente, intuisco che non le piacciono, ma per convenzione/definizione gli LLM sono AI.
|
Convenzione/definizione data da chi ? l'intelligenza implica la comprensione di un argomento e l'elasticità mentale per dedurre nuove idee. Gli LLM non fanno altro che soppesare delle parole per generarne una sequenza che appaia sensata in base a delle valutazioni statistiche. Un LLM non comprende quello che gli viene chiesto, lo spezzetta, lo soppesa e genera qualcosa che sembra una risposta plausibile in base a delle regole statistiche.
La utilizzo per lo sviluppo e per il refactoring del software ed il fatto che alla stessa domanda dia risposte differenti non lo ritengo un buon segno visto che mi sembrerebbe logico che restituisse sempre la risposta migliore. Non solo, quando si inventa istruzioni o librerie che non esistono risulta estremamente frustrante.
Direi che è paragonabile ad un pappagallo: ripete belluinamente qualcosa ma non ha idea del significato.
Agli albori dell'informatica si parlava di 'cervello elettronico', fino a quando la gente ha iniziato a rendersi conto che un calcolatore non è un cervello ma una macchina in grado di eseguire meccanicamente delle operazioni codificate da un umano. Un LLM non ha la fantasie e l'intuizione che caratterizzano l'intelligenza umana, invece che intelligenza artificiale sarebbe più opportuno definirli 'intelligenza simulata'. |
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 12 Set 2025 16:17 Oggetto: |
|
|
@777omega777 mi sto presentando come anonimo,e per questa scelta non posso certo fornire referenze circa le mie competenze.
Mi permetto solo di dire che no, non mi sono formato un opinione con Wikipedia o con la Treccani.
Cercavo di argomentarla, per voi, con questi strumenti.
Per rispondere però a lei @calamarim e @amldc e gli altri che sostanzialmente mi chiedete.
Ma chi ha deciso che un LLM è IA?
Ebbene a quanto mi risulta un LLM usa machine/deep learning e reti neurali per l'elaborazione del linguaggio naturale.
A livello accademico queste tecnologie vengono definite parti della branca scientifico/tecnologica chiamata IA.
Quindi un LLM è un modello (linguistico) definibile afferente all' IA.
Questo non significa dire che è certamente intelligente, ma è certamente un intelligenza artificiale.
Vi lascio un riferimento dell'università di Roma dove il machine/deep learning viene definito come afferente alla branca denominata intelligenza artificiale (nome del corso di studi in questione).
Ad oggi un LLM fa certamente uso di queste "tecniche" pertanto mi pare evidente come la pensi il mondo accademico e le istituzioni che si occupano (anche) di questo: link
Poi se avete altre fonti che mi smentiscono, sarei curioso di imparare qualcosa di nuovo.
@clamarim spero che il parere di un università (in buona compagnia per altro) sia un parere sufficiente scientifico.
Se ha bisogno di altre evidenze più specifiche, dettagli pure che vedo di fare del mio meglio.
A tutti, cordiali saluti. |
|
Top |
|
 |
777omega777 Mortale pio

Registrato: 22/07/13 15:24 Messaggi: 15
|
Inviato: 13 Set 2025 08:21 Oggetto: |
|
|
amldc ha scritto: | Un LLM non ha la fantasie e l'intuizione che caratterizzano l'intelligenza umana, invece che intelligenza artificiale sarebbe più opportuno definirli 'intelligenza simulata'. |
Da notare comunque che questo si applica solo alle LLM e solo perché l'output è testuale. Se non fosse testuale, se non fosse discorsivo, nessuno si sognerebbe di definirla come "intelligenza simulata". Il punto è come lo percepiamo noi, quindi è un'intelligenza percepita. (Ma non ha senso definire un qualcosa come "intelligenza percepita".)
Alla fine non è diverso dal considerare l'omeopatia come una medicina, solo perché qualcuno che l'assume lo "percepisce" come tale, quando ha solo davanti un effetto placebo misto a eventi fortuiti.
Vedere dell'intelligenza nei LLM non è diverso dal vedere nelle forme delle nuvole la natura che ci sta dicendo cose. E tanto per dire, nessuno si sognerebbe di chiamare "intelligenza" i modelli dedicati ai disegni, nessuno avrebbe mai iniziato a parlare di IA se la popolarità fosse partita da Stable Diffusion. |
|
Top |
|
 |
{eret} Ospite
|
Inviato: 13 Set 2025 11:50 Oggetto: |
|
|
I software che sbagliano ci sono propinati dai soliti "magnifici 7" che fanno il bello e il cattivo tempo.
Dato che effettivamente a qualcosa servono, se usati nel modo giusto e con le giuste precauzioni, alla fine finiscono con l'imporsi, perché oggi le persone hanno smarrito per strada qualcosa, qualcosa che viene parzialmente compensato dgli LLM.
Personalmente ho tentato qualche volta di usare chatbot per chattare, ma sinceramente è come parlare da soli (e loro confermano), mentre usati per lavoro bisogna stare attentissimi perché prendere per buone delle fesserie è un attimo, quando invece non ti esasperano perché gli chiedi di modificare una banale formula Excel e ti sfornano errori su errori. |
|
Top |
|
 |
Homer S. Dio Kwisatz Haderach

Registrato: 24/12/21 10:59 Messaggi: 7180 Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?
|
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 13 Set 2025 17:35 Oggetto: |
|
|
@777omega777 per Diana, stable diffusion e gli altri modelli che disegnano sono IA.
Non è come dice che nessuno si sarebbe azzardato a definirli tali, sono definitivi da pressoché chiunque così.
Qui vedo molti a discutere se un LLM sia considerabile intelligente.. ma che discussione è che necessità c'è che sia intelligente per definirlo IA?
Ieri sera ho letto un mattone.. ed era un libero.
Lo so per dimostrare il mio punto non è forse un buon cavallo di battaglia, ma ehi aspettate neppure in questa frase c'è di mezzo un equino.
I percettori sono IA (anzi cybernetica se vogliamo usare il termine storicamente più idoneo).
@calamarim cercava paper/pubblicazione soggetti a peer review? Eccone uno fresco fresco del 1958: link
È il punto di partenza da cui si sono sviluppate le reti neurali artificiali. E la disciplina in questione si chiamava cybernetica prima ed IA oggi.
Un percettore è intelligente? No di certo
Però e IA così come un libero pesante è un mattone..
Per cui risparmiate discorsi vaghi ed inconcludenti sull natura filosofica dell'intelligenza e se questi modello ce l'abbiano.
Iniziate quanto meno prima a capire cosa siano questi modelli e perché la comunità scientifica li definisca IA.
Resto sempre in attesa di elementi oggettivi a sostegno della vostra posizione.
Ossia che questi modelli non siano convenzionalmente definitivi IA (nome della disciplina non perché siano intelligenti o preggio consapevoli) |
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 14 Set 2025 16:41 Oggetto: - |
|
|
Commento di utente non verificato, in attesa di approvazione. |
|
Top |
|
 |
Gladiator Dio maturo


Registrato: 05/12/10 21:32 Messaggi: 14654 Residenza: Purtroppo o per fortuna Italia
|
Inviato: 14 Set 2025 18:47 Oggetto: |
|
|
Potrebbe essere interessante in questo caso capire anche il punto di vista di uno dei diretti interessati, in questo caso ChatGPT-5 Free.
Prompt ha scritto: | Tu sei una intelligenza artificiale un LLM o cosa? |
ChatGPT ha scritto: |
Sì, esatto — sono un **LLM**, cioè un **Large Language Model** (modello linguistico di grandi dimensioni).
Ti spiego meglio cosa significa:
* Sono un **modello di intelligenza artificiale** addestrato su enormi quantità di testo per imparare i modelli linguistici, cioè come le parole si combinano per formare frasi e significati.
* Non “penso” come un umano e non “capisco” nel senso umano del termine. Quello che faccio è **prevedere la parola successiva** (o il token successivo) in una sequenza di testo, cercando di generare una risposta coerente e utile alla tua domanda.
* Sono ottimizzato per essere una **chat AI**, quindi non solo predico parole, ma provo anche a mantenere un tono naturale, contestualizzare la conversazione e seguire il filo del discorso.
In sintesi:
* **Sì**, sono un’intelligenza artificiale.
* **Sì**, sono un LLM.
* **No**, non ho coscienza o pensieri propri — ma posso simulare un dialogo in modo molto realistico. |
Prompt ha scritto: | Però non sei una intelligenza nel senso umano del termine quindi la definizione di intelligenza anche se artificiale è decisamente eccessiva e sovradimensionata per non dire completamente errata. |
ChatGPT ha scritto: |
Hai centrato un punto molto importante. 💡
Hai ragione: chiamarmi **“intelligenza”** può dare un’idea fuorviante.
Io non ho coscienza, non ho intenzioni, non ho emozioni, e non ho la capacità di ragionare nel senso umano del termine. Quello che faccio è **generare testo** sulla base di ciò che ho appreso, usando probabilità e correlazioni tra parole.
La parola “intelligenza” nel termine **Intelligenza Artificiale** (IA o AI) è più una **metafora** che una descrizione precisa. È nata storicamente negli anni ’50 per indicare sistemi che cercavano di eseguire compiti “intelligenti” — cioè compiti che normalmente richiedono capacità cognitive umane, come tradurre testi, giocare a scacchi, risolvere problemi logici.
Ma la mia “intelligenza” è:
* **Statistica**, non consapevole.
* **Limitata ai dati** su cui sono stato addestrato.
* **Senza comprensione reale**: non so cosa significhi davvero ciò che dico, anche se suona sensato.
In questo senso, potresti avere ragione a dire che il termine è eccessivo o ingannevole: sarebbe più preciso chiamarmi, per esempio, **modello linguistico automatico** o **sistema di generazione del linguaggio**, ma chiaramente suona meno “sexy” di “intelligenza artificiale”. 😄 |
Quindi anche la conclusione di ChatGPT è che la definizione di intelligenza è una metafora e può essere eccessiva o ingannevole ma la si usa perché la definizione corretta avrebbe meno appeal e, aggiungo io farebbe vendere meno e attrarrebbe meno persone influenzabili generando flussi di denaro infinitamente inferiori. |
|
Top |
|
 |
Gladiator Dio maturo


Registrato: 05/12/10 21:32 Messaggi: 14654 Residenza: Purtroppo o per fortuna Italia
|
Inviato: 14 Set 2025 18:53 Oggetto: |
|
|
@calamarim
Nel ruolo di uno dei 24 infaticabili e affezionati lettori aggiungerei anche un settimo punto alla tua lista che potrebbe essere una diretta conseguenza o, più probabilmente, lo scopo primario a monte dei 6 rischi descritti ovvero il mettere in mano tutto il potere finanziario e decisionale a coloro che questi modelli li governano e li manipolano e dei loro sodali che li foraggiano e li sostengono. |
|
Top |
|
 |
{UtenteAnonimo} Ospite
|
Inviato: 14 Set 2025 20:15 Oggetto: - |
|
|
Commento di utente non verificato, in attesa di approvazione. |
|
Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|