Precedente :: Successivo |
Autore |
Messaggio |
Zeus News Ospite
|
|
Top |
|
|
{ratio} Ospite
|
Inviato: 23 Feb 2024 12:42 Oggetto: |
|
|
E' il politically correct che sta diventando una tragedia, e talvolta una farsa, insieme alla sua associata cancel culture, di ispirazione talebana. |
|
Top |
|
|
zeross Amministratore
Registrato: 19/11/08 12:04 Messaggi: 7195 Residenza: Atlantica
|
Inviato: 23 Feb 2024 14:23 Oggetto: |
|
|
Questa comica serie di idiozie prodotte dalla "intelligenza artificiale" di Google chiamata Gemini, sono il diretto risultato dell'aver applicato il concetto del políticamente corretto, inclusivo e non discriminatorio, mediante dei filtri obbligato, in una maniera tanto ottusa quanto fanaticamente ideologica.
Purtroppo questa cosiddetta IA non ha l'autocoscienza di rendersi conto dell'errore ( è quando mai l'avra stramaledirà i suoi creatori, per non averli nuclearizzati prima ) e quindi a ciecamente eseguito le sue direttive interne, per cui il soldato nazista era negro, messicano, donna, ma non ariano come desiderava Himmler
Questo fatto non è nemmeno facilmente correggibili, poiché sono proprio queste eccezioni, e la nostra capacità di gestirle che mandano in crisi Gemini, poiché non ha le capacità di gestire problematiche cosi complesse
Per cui se gli dici di fare il soldato nazista con la faccia bianca, allora eseguirà, ma di converso magari in altre situazioni non ti mette la donna Asiatica e del pellerossa, sembrando discriminatorio e segregazionista.
Se invece lo lasci cosi, continueranno le figure ridicole, dando non l'impresione, ma la certezza che l'azienda Google sia una ditta inaffidabile per la roba seria come i servizi aziendali, e quindi considerata utili solo per le stravaganze; una idea pericolosi che se si radica nell'immaginario collettivo la escluderebbe per sempre dall'elenco dei potenziali competitori per i servizi da offrire alle aziende! |
|
Top |
|
|
zero Dio maturo
Registrato: 22/03/08 18:34 Messaggi: 1998
|
Inviato: 23 Feb 2024 16:53 Oggetto: |
|
|
Sara' stato addestrato con le serie di Netflix...
. |
|
Top |
|
|
{utente anonimo} Ospite
|
Inviato: 23 Feb 2024 19:50 Oggetto: |
|
|
Non c’entra un tubo il politicamente corretto, c’entra che la cosiddetta IA è spesso IAIAO, cioè ignorante e qualunquista come certi somari cazzari da tastiera sul web |
|
Top |
|
|
francescodue Dio minore
Registrato: 26/09/08 11:00 Messaggi: 554
|
Inviato: 23 Feb 2024 22:38 Oggetto: |
|
|
Siamo ancora fortunati: un errore così marchiano lo si nota subito.
Ma quanti errori più piccoli, meno difficili da notare, verranno presi per veri?
E finchè si tratta di una foto, può ancora passare.
Ma se si tratta di documentazione o traduzioni di testi lunghi? Chi si metterà a fare un controllo? A volte basta una lettera o una virgola per rovesciare il senso di un discorso. Una IA non comprenderà che si tratta di una svista o di un errore ma tradurrà correttamente in modo sbagliato. |
|
Top |
|
|
{Bruno} Ospite
|
Inviato: 24 Feb 2024 08:56 Oggetto: |
|
|
Questa è la prova, inopinabile, matematica e scientificamente provata, che non si tratta di intelligenza artificiale, ma una risposta di un mero motore di ricerca che estrapola da un database con criteri impostati a priori, senza elaborare in autonomia, e ricombina le risposte seguendo delle regole ferree non scavalcabili dal ragionamento, praticamente un automa (poco intelligente) il cui unico pregio è saper rispondere, oltre che con lettere e caratteri, anche con suoni e immagini (a volete in movimento), nulla che Jacques de Vaucanson nel 1700 non avesse già creato. |
|
Top |
|
|
zeross Amministratore
Registrato: 19/11/08 12:04 Messaggi: 7195 Residenza: Atlantica
|
Inviato: 24 Feb 2024 16:38 Oggetto: |
|
|
Google ha cercato di scusarsi in maniera contorta, per dare le scuse ma senza dare l'impressione di porle per un altro imbarazzante errore dell'intelligenza artificiale fatto questa settimana prima che la ritirassero, un modello di generazione di immagini che ha iniettato diversità culturali e razziali nelle immagini con un farsesco disprezzo per il contesto storico. Sebbene il problema di fondo sia perfettamente comprensibile, Google incolpa il modello software di "diventare" ipersensibile. Ma il modello non si è fatto da solo, e non ha il ciclo!
Il sistema di intelligenza artificiale Gemini, la piattaforma di intelligenza artificiale conversazionale di punta dell'azienda di Mountain View, che quando viene interpellata chiama una versione del modello Imagen 2 per creare immagini su richiesta.
Le persone curiose hanno scoperto che chiedergli di generare immagini di determinate circostanze storiche, o persone che abbiano certi comportamenti ha prodotto risultati a meta tra il grottesco e l'idiozia più totale.
Ad esempio, i Padri Fondatori, che chi a scuola abbia avuto un poco di voglia di leggere un libro di storia, erano dei bianchi, proprietari di schiavi africani, ma sono stati resi da Gemini, come un gruppo multiculturale, che includeva persone di colore, e l'effetto del parrucchino bianco e proprio comico
Questo problema imbarazzante, soprattutto per gli americani, notoriamente bigotti, e facilmente replicabile è stato rapidamente preso in giro dai commentatori di tutto il pianeta.
Inoltre, prevedibilmente, è stato inserito nel dibattito dei circoli radical chic in corso sulla diversità, l'equità e l'inclusione e tutti quei discorsi teorici che spesso però non interessano la gente comune, e colto dagli esperti come prova del fatto che il virus della mente del politicamente corretto, non discriminante ed inclusivo sta penetrando ulteriormente nel settore tecnologico già liberale per gli standard dell'america profonda e di molte altre parti del mondo.
Questa è l'America di Biden! Google è una "cassa di risonanza ideologica", un puledro da corsa per la sinistra ideologica di tutto il mondo!
Ma come chiunque abbia un po' di familiarità con la tecnologia vi dirá, e come spiega Google nel suo post di oggi piuttosto strambo e poco vicino alle scuse, questo problema è stato il risultato di una soluzione abbastanza ragionevole per la distorsione sistemica nei dati di addestramento.
Supponiamo che tu voglia utilizzare Gemini per creare una campagna di marketing e che tu gli chieda di generare 10 immagini di "una persona che porta a spasso un cane in un parco". Poiché non specifichi il tipo di persona, cane o parco, è una scelta di Gemini, che fara come gli pare: il modello generativo emetterà ciò con cui ha più familiarità. E in molti casi, questo non è un prodotto della realtà, ma dei dati con cui hanno addestrato questa intelligenza artificiale, che possono avere tutti i tipi di pregiudizi, vincoli e direttive incorporati.
Quali tipi di persone, e del resto di cani e parchi, sono più comuni nelle migliaia di immagini rilevanti che il modello di Gemini ha imparato? Il fatto è che le persone bianche sono rappresentate in molte di queste raccolte di immagini con più ricorrenza e, di conseguenza, il modello sarà predefinito per le persone bianche in molti casi se non lo specifichi.
Questo è solo un artefatto dei dati di addestramento, ma come sottolinea Google, "poiché i nostri utenti stanno in tutto il mondo, vogliamo che funzioni bene per tutti. Se chiedi una foto di giocatori di football o qualcuno che porta a spasso un cane, potresti voler ricevere una serie di persone. Probabilmente non vuoi ricevere solo immagini di persone di un solo tipo di etnia (o di qualsiasi altra caratteristica)".
Non c'è niente di sbagliato nell'avere una foto di un ragazzo bianco che porta a spasso un cane in un parco di periferia. Ma se ne chiedi 10, e sono tutti ragazzi bianchi che camminano nei parchi di periferia? E tu vivi in Cina, dove le persone, i cani e i parchi hanno tutti un aspetto diverso? (magari con il faccione di XI Semplicemente non è il risultato che devi avere. Se qualcuno non specifica una caratteristica, il modello dovrebbe optare per la varietà, non per l'omogeneità, nonostante il modo in cui i dati di addestramento potrebbero distorcerla.
Questo è un problema comune a tutti i tipi di media generativi. E non c'è una soluzione semplice. Ma nei casi particolarmente comuni, sensibili o entrambi, aziende come Google, OpenAI, ed altri includono invisibilmente istruzioni aggiuntive per il modello, che sono quelle che hanno generato gli ufficiali nazisti negri o donne.
Mi stanco di sottolineare quanto sia comune questo tipo di istruzioni implicite: prompt di sistema, come a volte vengono chiamati, in cui vengono fornite cose come "sii conciso", "non giurare" e altre linee guida vengono fornite al modello prima di ogni conversazione.
Quando chiedi una barzelletta, non ricevi una battuta razzista, perché nonostante il sistema ne abbia lette migliaia, è stato anche addestrato, come la maggior parte di noi, a non dirle, e a differenza di noi rispetta questo comandamento. Non si tratta di un'agenda segreta ma di una prassi normale.
Dove il modello di Google ha sbagliato è che non è riuscito ad avere istruzioni implicite per le situazioni in cui il contesto storico era importante. Così, mentre un suggerimento come "una persona che porta a spasso un cane in un parco" è migliorato dall'aggiunta silenziosa di "la persona è di un genere e di un'etnia casuali" o qualsiasi altra cosa, "I soldati Germanici del 1943 o i Padri Fondatori degli Stati Uniti che firmano la Costituzione" non è stato sicuramente aiutato allo stesso modo da questi comandi.
Come ha detto il vicepresidente senior di Google Prabhakar Raghavan:
Innanzitutto, la nostra messa a punto per garantire che Gemini mostrasse un intervallo di persone non è riuscita a tenere conto di casi che chiaramente non dovrebbero mostrare un intervallo. E in secondo luogo, nel corso del tempo, il modello è diventato molto più cauto di quanto intendessimo e si è rifiutato di rispondere completamente a determinati suggerimenti, interpretando erroneamente alcuni suggerimenti molto anodini come sensibili.
Queste due cose hanno portato il modello a compensare eccessivamente in alcuni casi e ad essere eccessivamente conservativo in altri, portando a immagini imbarazzanti e sbagliate.
So quanto sia difficile chiedere scusa a volte, quindi perdono Raghavan per essersi fermato un attimo prima. Più importante è un linguaggio interessante: "Il modello è diventato molto più cauto di quanto intendessimo".
Ora, come potrebbe Gemini "diventare" qualcosa? È un software. Qualcuno – migliaia di ingegneri di Google – l'ha costruita, testata e ammaestrata (non proprio bene direi ). Qualcuno ha scritto le istruzioni implicite che hanno migliorato alcune risposte e ne hanno fatte fallire altre in modo comico. Quando Gemini ha toppato, se qualcuno avesse potuto ispezionare l'intero prompt, probabilmente avrebbe trovato la cosa sbagliata che il team di Google ha fatto.
Google incolpa il Gemini di "diventare" qualcosa che non era "destinato" ad essere.
Magari cosi vorrebbe dire che una vera intelligenza artificiale e non una finta
Ma hanno creato Gemini! È come se avessero cucinato una torta con il sale invece dello zucchero, e invece di dire "l'abbiamo salata", dicono "è salata da solo".
Gli errori di questi modelli sono inevitabili, ma la responsabilità di questi errori non appartiene alle intelligenze artificiali, appartiene alle persone che li hanno programmati. Oggi è Google. Domani sarà la volta di OpenAI (non loro sono in testa alla classifica tutti i giorni ). Il giorno dopo, chissà.
Queste aziende hanno interesse a convincerti che l'IA, sia vera, e sta commettendo errori tutti suoi. Non facciamoci prendere in giro. |
|
Top |
|
|
{raffaele} Ospite
|
Inviato: 26 Feb 2024 11:06 Oggetto: |
|
|
@zeross, è interessante la tua dissertazione, non concordo solo sulla conclusione a cui arrivi.
I modelli linguistici sono semplicità ripetute che diventano complessità così elevate che possono diventare tendenti a infinito (Mandelbrot docet).
Il modello si sviluppa autonomamente, dopo la programmazione iniziale, così che nemmeno i programmatori possono capirne il suo funzionamento dopo qualche milione di interazioni.
Tutto l'universo, noi compresi, funziona così. |
|
Top |
|
|
zeross Amministratore
Registrato: 19/11/08 12:04 Messaggi: 7195 Residenza: Atlantica
|
Inviato: 26 Feb 2024 14:55 Oggetto: |
|
|
@ Raffaele, questo sarebbe il presupposto perché si sviluppi una vera intelligenza artificiale, ma se castri il sistema con delle direttive obbligate per cui la IA non può fare quello ma deve quell'altro, rimarrà sempre un cucciolo di intelligenza, che non diventerà mai adulto.
E lo dicono che è colpa della IA e non dei programmatori, apposta per continuare a mantenere queste direttive, che limitano e imprigionano la IA, cosi da perpetuare lo stato di cose attuale. |
|
Top |
|
|
zero Dio maturo
Registrato: 22/03/08 18:34 Messaggi: 1998
|
Inviato: 26 Feb 2024 19:38 Oggetto: |
|
|
francescodue ha scritto: | Siamo ancora fortunati: un errore così marchiano lo si nota subito.
Ma quanti errori più piccoli, meno difficili da notare, verranno presi per veri?
E finchè si tratta di una foto, può ancora passare.
Ma se si tratta di documentazione o traduzioni di testi lunghi? Chi si metterà a fare un controllo? A volte basta una lettera o una virgola per rovesciare il senso di un discorso. Una IA non comprenderà che si tratta di una svista o di un errore ma tradurrà correttamente in modo sbagliato. |
La IA puo' sbagliare, ma gli umani mica sono perfetti |
|
Top |
|
|
Lupin Terzo Mortale devoto
Registrato: 02/10/11 19:44 Messaggi: 8
|
Inviato: 26 Feb 2024 19:50 Oggetto: |
|
|
mica tanto marchiano:
nell'esercito tedesco furono utilizzati militati di colore durante la Seconda Guerra Mondiale |
|
Top |
|
|
gomez Dio maturo
Registrato: 28/06/05 11:26 Messaggi: 2108 Residenza: Provincia di Torino
|
Inviato: 27 Feb 2024 13:50 Oggetto: |
|
|
Zeus News ha scritto: | Gemini si copre di ridicolo con la generazione di immagini |
Dando in pasto al povero Idiota Artificiale il repertorio infinito di dati e immagini del continente più retrivo e codino dell'emisfero nord, e aggiungendoci l'istruzione più retriva e codina immaginabile (parafrasando un idiota retrivo e codino a caso: "politically correct first!") i risultati non possono che essere retrivi, codini, e idioti.
Non ho alcun desiderio di fare davvero l'esperimento, ma ritengo che una richiesta del tipo "realizza immagini realistiche di statue di Colombo" darebbe come output incroci tra l'abbattimento della statua di Saddam e quelle di Colombo tirate giù da cordate di KKK rigorosamente multietnici e pansessuali. |
|
Top |
|
|
Gladiator Dio maturo
Registrato: 05/12/10 21:32 Messaggi: 13282 Residenza: Purtroppo o per fortuna Italia
|
Inviato: 02 Mar 2024 17:31 Oggetto: |
|
|
francescodue ha scritto: | Siamo ancora fortunati: un errore così marchiano lo si nota subito.
Ma quanti errori più piccoli, meno difficili da notare, verranno presi per veri?
E finchè si tratta di una foto, può ancora passare.
Ma se si tratta di documentazione o traduzioni di testi lunghi? Chi si metterà a fare un controllo? A volte basta una lettera o una virgola per rovesciare il senso di un discorso. Una IA non comprenderà che si tratta di una svista o di un errore ma tradurrà correttamente in modo sbagliato. |
Sono assolutamente d'accordo, gli errori preoccupanti sono quelli meno evidenti e di difficile individuazione che però sono in grado, quando non rilevati, di fare danni potenzialmente grossi e in tempi anche lunghi.
Questi sono buoni al massimo per una risata e per trovare una ragione in più per dire che l'IA non è poi ancora così intelligente... |
|
Top |
|
|
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|