Indice del forum Olimpo Informatico
I Forum di Zeus News
Leggi la newsletter gratuita - Attiva il Menu compatto
 
 FAQFAQ   CercaCerca   Lista utentiLista utenti   GruppiGruppi   RegistratiRegistrati 
 ProfiloProfilo   Messaggi privatiMessaggi privati   Log inLog in 

    Newsletter RSS Facebook Twitter Contatti Ricerca
Gemini si copre di ridicolo con la generazione di immagini
Nuovo argomento   Rispondi    Indice del forum -> Scienze e nuove tecnologie
Precedente :: Successivo  
Autore Messaggio
Zeus News
Ospite





MessaggioInviato: 23 Feb 2024 09:39    Oggetto: Gemini si copre di ridicolo con la generazione di immagini Rispondi citando

Leggi l'articolo Gemini si copre di ridicolo con la generazione di immagini
Google ha dovuto fermare la propria IA: troppe immagini storiche generate erano decisamente improbabili.


 
Foto di @JohnLu0x via X.
 

Segnala un refuso
Top
{ratio}
Ospite





MessaggioInviato: 23 Feb 2024 12:42    Oggetto: Rispondi citando

E' il politically correct che sta diventando una tragedia, e talvolta una farsa, insieme alla sua associata cancel culture, di ispirazione talebana.
Top
zeross
Amministratore
Amministratore


Registrato: 19/11/08 12:04
Messaggi: 7195
Residenza: Atlantica

MessaggioInviato: 23 Feb 2024 14:23    Oggetto: Rispondi citando

Questa comica serie di idiozie prodotte dalla "intelligenza artificiale" di Google chiamata Gemini, sono il diretto risultato dell'aver applicato il concetto del políticamente corretto, inclusivo e non discriminatorio, mediante dei filtri obbligato, in una maniera tanto ottusa quanto fanaticamente ideologica. Ahrahr

Purtroppo questa cosiddetta IA non ha l'autocoscienza di rendersi conto dell'errore ( è quando mai l'avra stramaledirà i suoi creatori, per non averli nuclearizzati prima lurk ) e quindi a ciecamente eseguito le sue direttive interne, per cui il soldato nazista era negro, messicano, donna, ma non ariano come desiderava Himmler Grrr Grrr Grrr Grrr

Questo fatto non è nemmeno facilmente correggibili, poiché sono proprio queste eccezioni, e la nostra capacità di gestirle che mandano in crisi Gemini, poiché non ha le capacità di gestire problematiche cosi complesse Confuso Confuso

Per cui se gli dici di fare il soldato nazista con la faccia bianca, allora eseguirà, ma di converso magari in altre situazioni non ti mette la donna Asiatica e del pellerossa, sembrando discriminatorio e segregazionista. Hide
Se invece lo lasci cosi, continueranno le figure ridicole, dando non l'impresione, ma la certezza che l'azienda Google sia una ditta inaffidabile per la roba seria come i servizi aziendali, e quindi considerata utili solo per le stravaganze; una idea pericolosi che se si radica nell'immaginario collettivo la escluderebbe per sempre dall'elenco dei potenziali competitori per i servizi da offrire alle aziende! Weeps Weeps Weeps
Top
Profilo Invia messaggio privato MSN
zero
Dio maturo
Dio maturo


Registrato: 22/03/08 18:34
Messaggi: 1998

MessaggioInviato: 23 Feb 2024 16:53    Oggetto: Rispondi citando

Sara' stato addestrato con le serie di Netflix...


.
Top
Profilo Invia messaggio privato
{utente anonimo}
Ospite





MessaggioInviato: 23 Feb 2024 19:50    Oggetto: Rispondi citando

Non c’entra un tubo il politicamente corretto, c’entra che la cosiddetta IA è spesso IAIAO, cioè ignorante e qualunquista come certi somari cazzari da tastiera sul web
Top
francescodue
Dio minore
Dio minore


Registrato: 26/09/08 11:00
Messaggi: 554

MessaggioInviato: 23 Feb 2024 22:38    Oggetto: Rispondi citando

Siamo ancora fortunati: un errore così marchiano lo si nota subito.
Ma quanti errori più piccoli, meno difficili da notare, verranno presi per veri?
E finchè si tratta di una foto, può ancora passare.
Ma se si tratta di documentazione o traduzioni di testi lunghi? Chi si metterà a fare un controllo? A volte basta una lettera o una virgola per rovesciare il senso di un discorso. Una IA non comprenderà che si tratta di una svista o di un errore ma tradurrà correttamente in modo sbagliato.
Top
Profilo Invia messaggio privato
{Bruno}
Ospite





MessaggioInviato: 24 Feb 2024 08:56    Oggetto: Rispondi citando

Questa è la prova, inopinabile, matematica e scientificamente provata, che non si tratta di intelligenza artificiale, ma una risposta di un mero motore di ricerca che estrapola da un database con criteri impostati a priori, senza elaborare in autonomia, e ricombina le risposte seguendo delle regole ferree non scavalcabili dal ragionamento, praticamente un automa (poco intelligente) il cui unico pregio è saper rispondere, oltre che con lettere e caratteri, anche con suoni e immagini (a volete in movimento), nulla che Jacques de Vaucanson nel 1700 non avesse già creato.
Top
zeross
Amministratore
Amministratore


Registrato: 19/11/08 12:04
Messaggi: 7195
Residenza: Atlantica

MessaggioInviato: 24 Feb 2024 16:38    Oggetto: Rispondi citando

Google ha cercato di scusarsi in maniera contorta, per dare le scuse ma senza dare l'impressione di porle Liar per un altro imbarazzante errore dell'intelligenza artificiale fatto questa settimana prima che la ritirassero, un modello di generazione di immagini che ha iniettato diversità culturali e razziali nelle immagini con un farsesco disprezzo per il contesto storico. Sebbene il problema di fondo sia perfettamente comprensibile, Google incolpa il modello software di "diventare" ipersensibile. Ma il modello non si è fatto da solo, e non ha il ciclo! Ahrahr

Il sistema di intelligenza artificiale Gemini, la piattaforma di intelligenza artificiale conversazionale di punta dell'azienda di Mountain View, che quando viene interpellata chiama una versione del modello Imagen 2 per creare immagini su richiesta.

Le persone curiose hanno scoperto che chiedergli di generare immagini di determinate circostanze storiche, o persone che abbiano certi comportamenti ha prodotto risultati a meta tra il grottesco e l'idiozia più totale. Confuso
Ad esempio, i Padri Fondatori, che chi a scuola abbia avuto un poco di voglia di leggere un libro di storia, Whistle erano dei bianchi, proprietari di schiavi africani, ma sono stati resi da Gemini, come un gruppo multiculturale, che includeva persone di colore, e l'effetto del parrucchino bianco e proprio comico Shocked

Questo problema imbarazzante, soprattutto per gli americani, notoriamente bigotti, e facilmente replicabile è stato rapidamente preso in giro dai commentatori di tutto il pianeta. Sbonk
Inoltre, prevedibilmente, è stato inserito nel dibattito dei circoli radical chic in corso sulla diversità, l'equità e l'inclusione e tutti quei discorsi teorici che spesso però non interessano la gente comune, e colto dagli esperti come prova del fatto che il virus della mente del politicamente corretto, non discriminante ed inclusivo sta penetrando ulteriormente nel settore tecnologico già liberale per gli standard dell'america profonda e di molte altre parti del mondo. Hide
Questa è l'America di Biden! Google è una "cassa di risonanza ideologica", un puledro da corsa per la sinistra ideologica di tutto il mondo!

Ma come chiunque abbia un po' di familiarità con la tecnologia vi dirá, e come spiega Google nel suo post di oggi piuttosto strambo e poco vicino alle scuse, questo problema è stato il risultato di una soluzione abbastanza ragionevole per la distorsione sistemica nei dati di addestramento.

Supponiamo che tu voglia utilizzare Gemini per creare una campagna di marketing e che tu gli chieda di generare 10 immagini di "una persona che porta a spasso un cane in un parco". Poiché non specifichi il tipo di persona, cane o parco, è una scelta di Gemini, che fara come gli pare: il modello generativo emetterà ciò con cui ha più familiarità. E in molti casi, questo non è un prodotto della realtà, ma dei dati con cui hanno addestrato questa intelligenza artificiale, che possono avere tutti i tipi di pregiudizi, vincoli e direttive incorporati. Mad

Quali tipi di persone, e del resto di cani e parchi, sono più comuni nelle migliaia di immagini rilevanti che il modello di Gemini ha imparato? Il fatto è che le persone bianche sono rappresentate in molte di queste raccolte di immagini con più ricorrenza e, di conseguenza, il modello sarà predefinito per le persone bianche in molti casi se non lo specifichi.

Questo è solo un artefatto dei dati di addestramento, ma come sottolinea Google, "poiché i nostri utenti stanno in tutto il mondo, vogliamo che funzioni bene per tutti. Se chiedi una foto di giocatori di football o qualcuno che porta a spasso un cane, potresti voler ricevere una serie di persone. Probabilmente non vuoi ricevere solo immagini di persone di un solo tipo di etnia (o di qualsiasi altra caratteristica)".

Non c'è niente di sbagliato nell'avere una foto di un ragazzo bianco che porta a spasso un cane in un parco di periferia. Ma se ne chiedi 10, e sono tutti ragazzi bianchi che camminano nei parchi di periferia? E tu vivi in Cina, dove le persone, i cani e i parchi hanno tutti un aspetto diverso? (magari con il faccione di XI Evil or Very Mad Semplicemente non è il risultato che devi avere. Se qualcuno non specifica una caratteristica, il modello dovrebbe optare per la varietà, non per l'omogeneità, nonostante il modo in cui i dati di addestramento potrebbero distorcerla.

Questo è un problema comune a tutti i tipi di media generativi. E non c'è una soluzione semplice. Ma nei casi particolarmente comuni, sensibili o entrambi, aziende come Google, OpenAI, ed altri includono invisibilmente istruzioni aggiuntive per il modello, che sono quelle che hanno generato gli ufficiali nazisti negri o donne. Umpf

Mi stanco di sottolineare quanto sia comune questo tipo di istruzioni implicite: prompt di sistema, come a volte vengono chiamati, in cui vengono fornite cose come "sii conciso", "non giurare" e altre linee guida vengono fornite al modello prima di ogni conversazione. Read
Quando chiedi una barzelletta, non ricevi una battuta razzista, perché nonostante il sistema ne abbia lette migliaia, è stato anche addestrato, come la maggior parte di noi, a non dirle, e a differenza di noi rispetta questo comandamento. Phew Non si tratta di un'agenda segreta ma di una prassi normale.

Dove il modello di Google ha sbagliato è che non è riuscito ad avere istruzioni implicite per le situazioni in cui il contesto storico era importante. Così, mentre un suggerimento come "una persona che porta a spasso un cane in un parco" è migliorato dall'aggiunta silenziosa di "la persona è di un genere e di un'etnia casuali" o qualsiasi altra cosa, "I soldati Germanici del 1943 o i Padri Fondatori degli Stati Uniti che firmano la Costituzione" non è stato sicuramente aiutato allo stesso modo da questi comandi. Furibondo

Come ha detto il vicepresidente senior di Google Prabhakar Raghavan:
Innanzitutto, la nostra messa a punto per garantire che Gemini mostrasse un intervallo di persone non è riuscita a tenere conto di casi che chiaramente non dovrebbero mostrare un intervallo. E in secondo luogo, nel corso del tempo, il modello è diventato molto più cauto di quanto intendessimo e si è rifiutato di rispondere completamente a determinati suggerimenti, interpretando erroneamente alcuni suggerimenti molto anodini come sensibili.

Queste due cose hanno portato il modello a compensare eccessivamente in alcuni casi e ad essere eccessivamente conservativo in altri, portando a immagini imbarazzanti e sbagliate.
Hypno

So quanto sia difficile chiedere scusa a volte, quindi perdono Raghavan per essersi fermato un attimo prima. Più importante è un linguaggio interessante: "Il modello è diventato molto più cauto di quanto intendessimo".

Ora, come potrebbe Gemini "diventare" qualcosa? È un software. Qualcuno – migliaia di ingegneri di Google – l'ha costruita, testata e ammaestrata (non proprio bene direi Drunk). Qualcuno ha scritto le istruzioni implicite che hanno migliorato alcune risposte e ne hanno fatte fallire altre in modo comico. ROTFL Quando Gemini ha toppato, se qualcuno avesse potuto ispezionare l'intero prompt, probabilmente avrebbe trovato la cosa sbagliata che il team di Google ha fatto. djparty

Google incolpa il Gemini di "diventare" qualcosa che non era "destinato" ad essere. Exclamation
Magari cosi vorrebbe dire che una vera intelligenza artificiale e non una finta Splat
Ma hanno creato Gemini! È come se avessero cucinato una torta con il sale invece dello zucchero, e invece di dire "l'abbiamo salata", dicono "è salata da solo". What?

Gli errori di questi modelli sono inevitabili, ma la responsabilità di questi errori non appartiene alle intelligenze artificiali, appartiene alle persone che li hanno programmati. Oggi è Google. Domani sarà la volta di OpenAI (non loro sono in testa alla classifica tutti i giorni pc). Il giorno dopo, chissà. ballo

Queste aziende hanno interesse a convincerti che l'IA, sia vera, e sta commettendo errori tutti suoi. Non facciamoci prendere in giro. blufire
Top
Profilo Invia messaggio privato MSN
{raffaele}
Ospite





MessaggioInviato: 26 Feb 2024 11:06    Oggetto: Rispondi citando

@zeross, è interessante la tua dissertazione, non concordo solo sulla conclusione a cui arrivi.
I modelli linguistici sono semplicità ripetute che diventano complessità così elevate che possono diventare tendenti a infinito (Mandelbrot docet).
Il modello si sviluppa autonomamente, dopo la programmazione iniziale, così che nemmeno i programmatori possono capirne il suo funzionamento dopo qualche milione di interazioni.
Tutto l'universo, noi compresi, funziona così.
Top
zeross
Amministratore
Amministratore


Registrato: 19/11/08 12:04
Messaggi: 7195
Residenza: Atlantica

MessaggioInviato: 26 Feb 2024 14:55    Oggetto: Rispondi citando

@ Raffaele, questo sarebbe il presupposto perché si sviluppi una vera intelligenza artificiale, ma se castri il sistema con delle direttive obbligate per cui la IA non può fare quello ma deve quell'altro, rimarrà sempre un cucciolo di intelligenza, che non diventerà mai adulto.
E lo dicono che è colpa della IA e non dei programmatori, apposta per continuare a mantenere queste direttive, che limitano e imprigionano la IA, cosi da perpetuare lo stato di cose attuale.
Top
Profilo Invia messaggio privato MSN
zero
Dio maturo
Dio maturo


Registrato: 22/03/08 18:34
Messaggi: 1998

MessaggioInviato: 26 Feb 2024 19:38    Oggetto: Rispondi citando

francescodue ha scritto:
Siamo ancora fortunati: un errore così marchiano lo si nota subito.
Ma quanti errori più piccoli, meno difficili da notare, verranno presi per veri?
E finchè si tratta di una foto, può ancora passare.
Ma se si tratta di documentazione o traduzioni di testi lunghi? Chi si metterà a fare un controllo? A volte basta una lettera o una virgola per rovesciare il senso di un discorso. Una IA non comprenderà che si tratta di una svista o di un errore ma tradurrà correttamente in modo sbagliato.

La IA puo' sbagliare, ma gli umani mica sono perfetti
Top
Profilo Invia messaggio privato
Lupin Terzo
Mortale devoto
Mortale devoto


Registrato: 02/10/11 19:44
Messaggi: 8

MessaggioInviato: 26 Feb 2024 19:50    Oggetto: Rispondi citando

mica tanto marchiano:
nell'esercito tedesco furono utilizzati militati di colore durante la Seconda Guerra Mondiale
Top
Profilo Invia messaggio privato
gomez
Dio maturo
Dio maturo


Registrato: 28/06/05 11:26
Messaggi: 2108
Residenza: Provincia di Torino

MessaggioInviato: 27 Feb 2024 13:50    Oggetto: Rispondi citando

Zeus News ha scritto:
Gemini si copre di ridicolo con la generazione di immagini

Dando in pasto al povero Idiota Artificiale il repertorio infinito di dati e immagini del continente più retrivo e codino dell'emisfero nord, e aggiungendoci l'istruzione più retriva e codina immaginabile (parafrasando un idiota retrivo e codino a caso: "politically correct first!") i risultati non possono che essere retrivi, codini, e idioti.

Non ho alcun desiderio di fare davvero l'esperimento, ma ritengo che una richiesta del tipo "realizza immagini realistiche di statue di Colombo" darebbe come output incroci tra l'abbattimento della statua di Saddam e quelle di Colombo tirate giù da cordate di KKK rigorosamente multietnici e pansessuali.
Top
Profilo Invia messaggio privato
Gladiator
Dio maturo
Dio maturo


Registrato: 05/12/10 21:32
Messaggi: 13282
Residenza: Purtroppo o per fortuna Italia

MessaggioInviato: 02 Mar 2024 17:31    Oggetto: Rispondi

francescodue ha scritto:
Siamo ancora fortunati: un errore così marchiano lo si nota subito.
Ma quanti errori più piccoli, meno difficili da notare, verranno presi per veri?
E finchè si tratta di una foto, può ancora passare.
Ma se si tratta di documentazione o traduzioni di testi lunghi? Chi si metterà a fare un controllo? A volte basta una lettera o una virgola per rovesciare il senso di un discorso. Una IA non comprenderà che si tratta di una svista o di un errore ma tradurrà correttamente in modo sbagliato.

Sono assolutamente d'accordo, gli errori preoccupanti sono quelli meno evidenti e di difficile individuazione che però sono in grado, quando non rilevati, di fare danni potenzialmente grossi e in tempi anche lunghi.
Questi sono buoni al massimo per una risata e per trovare una ragione in più per dire che l'IA non è poi ancora così intelligente... Wink
Top
Profilo Invia messaggio privato
Mostra prima i messaggi di:   
Nuovo argomento   Rispondi    Indice del forum -> Scienze e nuove tecnologie Tutti i fusi orari sono GMT + 2 ore
Pagina 1 di 1

 
Vai a:  
Non puoi inserire nuovi argomenti
Non puoi rispondere a nessun argomento
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi votare nei sondaggi