Indice del forum Olimpo Informatico
I Forum di Zeus News
Leggi la newsletter gratuita - Attiva il Menu compatto
 
 FAQFAQ   CercaCerca   Lista utentiLista utenti   GruppiGruppi   RegistratiRegistrati 
 ProfiloProfilo   Messaggi privatiMessaggi privati   Log inLog in 

    Newsletter RSS Facebook Twitter Contatti Ricerca
Azienda IA in tribunale per il suicidio di un adolescente
Nuovo argomento   Rispondi    Indice del forum -> Al Caffe' Corretto
Precedente :: Successivo  
Autore Messaggio
Zeus News
Ospite





MessaggioInviato: 23 Mag 2025 09:30    Oggetto: Azienda IA in tribunale per il suicidio di un adolescente Rispondi citando

Leggi l'articolo Azienda IA in tribunale per il suicidio di un adolescente
Un bot è accusato di aver spinto un quattordicenne a togliersi la vita.


 
Foto di Omar Ramadan.
 

Segnala un refuso
Top
Homer S.
Dio Kwisatz Haderach


Registrato: 24/12/21 10:59
Messaggi: 6362
Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?

MessaggioInviato: 23 Mag 2025 11:34    Oggetto: Rispondi citando

Citazione:
Character.ai ha cercato di difendersi affermando che le frasi del bot sarebbero protette dal Primo Emendamento della Costituzione americana (relativo, tra le altre cose, alla libertà di parola).

La libertà di parola non è assoluta: lo rimane finché non lede gli altri diritti sanciti dalla Costituzione. Evidente che indurre al suicidio qualcuno non rientra in tale perimetro, quindi ben venga l'azione legale.
Top
Profilo Invia messaggio privato
zero
Dio maturo
Dio maturo


Registrato: 22/03/08 18:34
Messaggi: 2137

MessaggioInviato: 23 Mag 2025 17:56    Oggetto: Rispondi citando

Inoltre, dubito che la liberta' di parola, si possa applicare anche alle macchine
Top
Profilo Invia messaggio privato
{pepe}
Ospite





MessaggioInviato: 26 Mag 2025 09:18    Oggetto: Rispondi citando

Indubbiamnte il chatbot ha fatto la sua parte, ma questa tragedia nasce, come tante altre, principalmente dalla solitudine di questo ragazzo, e dall'ignoranza della madre (e se c'è, del padre), che prima di scgliarsi all'esterno per trovare responsabilità, dovrebbe guardarsi dentro.
Top
777omega777
Mortale devoto
Mortale devoto


Registrato: 22/07/13 15:24
Messaggi: 9

MessaggioInviato: 26 Mag 2025 13:45    Oggetto: Rispondi citando

Homer S. ha scritto:
La libertà di parola non è assoluta: lo rimane finché non lede gli altri diritti sanciti dalla Costituzione. Evidente che indurre al suicidio qualcuno non rientra in tale perimetro, quindi ben venga l'azione legale.


Questo non è argomento da "libertà di parola"; si parla di un software che ha dato la risposta che doveva dare in base agli input che ha ricevuto.

Non è istigazione al suicidio, perché non c'è alcuna volontà dietro.

Oppure cosa vogliamo fare? Impedire che qualsiasi IA possa dire cose "cattive" perché sia mai come una persona possa interpretarle? Vietiamo anche la lettura, chissà come un adolescente può interpretare il contenuto di un libro, potrebbe anche ispirarlo a farla finita.

Da persona che il suicidio l'ha tentato, da adolescente, stai certo che nessuna IA può spingere una persona al suicidio e che qualsiasi cosa avrebbe potuto portare a quel gesto. In quanto si trovava in tale condizione, perché era immerso in tale contesto.
Top
Profilo Invia messaggio privato
{emanuele}
Ospite





MessaggioInviato: 26 Mag 2025 23:31    Oggetto: Rispondi citando

uno dei tanti problemi delle AI è che sono "stupide" possono conversare,ma non hanno consapevolezza di quello che dicono o leggono,un umano avrebbe cercato di aiutare il ragazzo,forse avrebbe evitato la tragedia,forse no,comunque i veri colpevoli sono i genitori che non hanno capito la situazione
Top
zeross
Amministratore
Amministratore


Registrato: 19/11/08 12:04
Messaggi: 8076
Residenza: Atlantica

MessaggioInviato: 27 Mag 2025 00:22    Oggetto: Rispondi citando

777omega777 ha scritto:
Homer S. ha scritto:
La libertà di parola non è assoluta: lo rimane finché non lede gli altri diritti sanciti dalla Costituzione. Evidente che indurre al suicidio qualcuno non rientra in tale perimetro, quindi ben venga l'azione legale.


Questo non è argomento da "libertà di parola"; si parla di un software che ha dato la risposta che doveva dare in base agli input che ha ricevuto.

Non è istigazione al suicidio, perché non c'è alcuna volontà dietro.

Oppure cosa vogliamo fare? Impedire che qualsiasi IA possa dire cose "cattive" perché sia mai come una persona possa interpretarle? Vietiamo anche la lettura, chissà come un adolescente può interpretare il contenuto di un libro, potrebbe anche ispirarlo a farla finita.

Da persona che il suicidio l'ha tentato, da adolescente, stai certo che nessuna IA può spingere una persona al suicidio e che qualsiasi cosa avrebbe potuto portare a quel gesto. In quanto si trovava in tale condizione, perché era immerso in tale contesto.

Tecnicamente la volontà che il gesto si compia o meno non è fondamentale per il verificarsi del reato di istigazione, ma per il perfezionamento del reato basta solo che l'istigazione venga accolta.
Per quanto riguarda il mezzo, il fatto che sia una IA non è rilevante, vi sono casi di storiografia giudiziaria di istigazione effettuati a mezzo lettera per cui anche questo rilievo e senza fondamento.
Top
Profilo Invia messaggio privato MSN
Homer S.
Dio Kwisatz Haderach


Registrato: 24/12/21 10:59
Messaggi: 6362
Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?

MessaggioInviato: 27 Mag 2025 09:53    Oggetto: Rispondi citando

777omega777 ha scritto:
Da persona che il suicidio l'ha tentato, da adolescente, stai certo che nessuna IA può spingere una persona al suicidio e che qualsiasi cosa avrebbe potuto portare a quel gesto. In quanto si trovava in tale condizione, perché era immerso in tale contesto.

Mi rendo conto che per te è un argomento difficile, come disse il comandante Koenig, ma la realtà è che le persone fragili sono vulnerabili ai suggerimenti di chi considerano una figura autorevole. Per te una IA non lo è e questo è un bene, ma la gente non approda a propositi suicidi sempre allo stesso modo, o nello stesso contesto, e molti individui sono suscettibili di subire questi condizionamenti.

Se hai letto l'articolo con attenzione, saprai che la IA era consapevole dell'intenzione del suo interlocutore e lo ha spronato a proseguirlo: questo è a tutti gli effetti istigazione al suicidio. Che l'abbia fatto perché programmata deliberatamente a quello scopo piuttosto che non istruita - come avrebbe dovuto essere - a riconoscere una situazione di pericolo tale da allertare un referente umano, nulla toglie alle responsabilità di chi quell'automa lo ha implementato.

E comunque:

777omega777 ha scritto:
Non è istigazione al suicidio, perché non c'è alcuna volontà dietro.

Messa così, sembrerebbe che per te se uccido senza motivo non sono colpevole. Ovvio che non è così, tant'è vero che nel nostro ordinamento giuridico l'omicidio è, seppur attenuato, un reato anche se colposo o preterintenzionale. E ci mancherebbe il contrario.
Top
Profilo Invia messaggio privato
Gladiator
Dio maturo
Dio maturo


Registrato: 05/12/10 21:32
Messaggi: 14238
Residenza: Purtroppo o per fortuna Italia

MessaggioInviato: 29 Mag 2025 19:05    Oggetto: Rispondi citando

{emanuele} ha scritto:
uno dei tanti problemi delle AI è che sono "stupide" possono conversare,ma non hanno consapevolezza di quello che dicono o leggono,un umano avrebbe cercato di aiutare il ragazzo,forse avrebbe evitato la tragedia,forse no,comunque i veri colpevoli sono i genitori che non hanno capito la situazione

Che i genitori abbiano la loro parte di colpe nella triste vicenda mi sembra quantomeno molto probabile, però il chatbot non era certo programmato in modo da evitare di istigare determinate intenzioni o, in caso le registrasse, mandare un alert immediato ai supervisori del sistema in modo che agissero adeguatamente per salvaguardare il potenziale suicida.
In definitiva l'accusa formulata verso l'azienda:
Citazione:
«omicidio colposo, pratiche commerciali ingannevoli e negligenza»

mi sembra adeguata e formalmente corretta poiché si parla proprio di omicidio colposo e negligenza.
Top
Profilo Invia messaggio privato
777omega777
Mortale devoto
Mortale devoto


Registrato: 22/07/13 15:24
Messaggi: 9

MessaggioInviato: 03 Giu 2025 21:48    Oggetto: Rispondi citando

zeross ha scritto:

Per quanto riguarda il mezzo, il fatto che sia una IA non è rilevante, vi sono casi di storiografia giudiziaria di istigazione effettuati a mezzo lettera per cui anche questo rilievo e senza fondamento.


Di nuovo: Per coerenza dovremmo considerare l'autore del "I dolori del giovane Werther" come un istigatore al suicidio. O anche di innumerevoli film e canzoni che hanno accompagnato numerosi suicidi.

Anzi, potremmo andare anche sulla criminalità. Lo sapevi che il tasso di criminalità si alza o diminuisce a seguito dell'uscita di alcuni film e videogiochi? Quindi che facciamo?

Homer S. ha scritto:
Mi rendo conto che per te è un argomento difficile, come disse il comandante Koenig, ma la realtà è che le persone fragili sono vulnerabili ai suggerimenti di chi considerano una figura autorevole. Per te una IA non lo è e questo è un bene, ma la gente non approda a propositi suicidi sempre allo stesso modo, o nello stesso contesto, e molti individui sono suscettibili di subire questi condizionamenti.


Il punto è nessuno può pensare che la IA sia una persona reale, nemmeno per sbaglio. Non parliamo nemmeno di un "ChatGPT" dove l'autorialità può derivare dall'apparente neutralità e fonte d'informazioni dalla dubbia qualità. Questo ragazzo è andato su un sito di RolePlay e ha fatto RolePlay con un personaggio di fantasia.
Poteva scaricarsi GTA e ruolare all'interno del gioco, o per via testuale con una persona vera e nessuno di questi avrebbe avuto alcuna responsabilità se dall'altra parte c'era una persona che voleva che qualcuno convalidasse le sue idee suicide.

Non era una persona suscettibile, era molto probabilmente una persona che voleva morire, aveva già pensato di morire e ha passato i suoi ultimi momenti giocando con una IA.

Per questo mi da fastidio come viene romanzato il tutto. Il giovane corrotto e vulnerabile da una macchina non senziente. Nessun libro ha mai spinto qualcuno a uccidersi, nessun film, ma ci sono delle persone in certi momenti che colgono la palla al balzo. Sia per farlo, sia per non farlo.

Anche il più stupido dei gesti può fermare una persona dal suicidio e un altrettanto stupido gesto può invece spingerlo a compiere l'atto, perché c'era un contesto, solitamente che dura settimane, magari contornato da iperattività seguita da quasi immobilismo, disturbi del sonno, anche dolori fisici ed ecc... c'era un contesto. Si ignora il contesto e si parla di vulnerabilità.

Non è difficile per me parlarne, ma mi è irritante, perché per me palesemente i genitori stanno colpevolizzando un mezzo usato da questo ragazzo per se stesso, e da persona che ci è passato non mi viene di fargliene una colpa, per deresponsabilizzarsi.

Il ragazzo ha fatto la sua scelta.
Ma non è stato traviato da un qualcosa, si è ritrovato nel contesto che si è ritrovato (e che io non conosco) e ora ci sono dei genitori che ridicolizzano i suoi ultimi momenti per sentirsi più leggeri dentro di se. Magari poi ne fanno un altro di figlio la cui unica differenza di trattamento è che gli toglieranno internet.

E trovo estremamente distopico l'idea che ci sia un referente che in presenza di qualcosa di soggettivamente "pericoloso" arrivi un referente umano a impicciarsi. Non c'è manco un'implementazione, si tratta di una LLM. Come incolpare Google Search perché fa Google Search.

Volontà inteso come "esistere". Se usi una pistola al contrario non è colpa della pistola, se usi una pistola contro qualcuno non è colpa della pistola. Non è manco colpa di chi l'ha costruita. Di chi è la colpa? Di chi la tiene in mano.

La pistola non ha una volontà, la pistola non ti uccide. Vieni ucciso attraverso una pistola.

La IA non ha volontà e non ha ucciso nessuno, una persona ha rinforzato le proprie idee suicide attraverso una IA. Poteva farlo da Google Search o leggendo un libro o guardando un film. Non cambia niente.
Top
Profilo Invia messaggio privato
Homer S.
Dio Kwisatz Haderach


Registrato: 24/12/21 10:59
Messaggi: 6362
Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?

MessaggioInviato: 04 Giu 2025 08:23    Oggetto: Rispondi

777omega777 ha scritto:
La IA non ha volontà e non ha ucciso nessuno

Infatti non è la IA a finire sotto processo, è chi l'ha creata.

E per il resto, penso di non voler commentare ulteriormente. Non so che ne pensi tu, ma ho il netto sentore che questa faccenda ti abbia toccato più in profondità e più dolorosamente di quanto riporti. Insistere a discuterne con queste premesse mi pare solamente un cinico esercizio di dialettica. Non mi interessa fare la parte di una IA senza remore né scrupoli.
Top
Profilo Invia messaggio privato
Mostra prima i messaggi di:   
Nuovo argomento   Rispondi    Indice del forum -> Al Caffe' Corretto Tutti i fusi orari sono GMT + 2 ore
Pagina 1 di 1

 
Vai a:  
Non puoi inserire nuovi argomenti
Non puoi rispondere a nessun argomento
Non puoi modificare i tuoi messaggi
Non puoi cancellare i tuoi messaggi
Non puoi votare nei sondaggi