Precedente :: Successivo |
Autore |
Messaggio |
Zeus News Ospite
|
|
Top |
|
 |
Homer S. Dio Kwisatz Haderach

Registrato: 24/12/21 10:59 Messaggi: 6370 Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?
|
Inviato: 23 Mag 2025 11:34 Oggetto: |
|
|
Citazione: | Character.ai ha cercato di difendersi affermando che le frasi del bot sarebbero protette dal Primo Emendamento della Costituzione americana (relativo, tra le altre cose, alla libertà di parola). |
La libertà di parola non è assoluta: lo rimane finché non lede gli altri diritti sanciti dalla Costituzione. Evidente che indurre al suicidio qualcuno non rientra in tale perimetro, quindi ben venga l'azione legale. |
|
Top |
|
 |
zero Dio maturo

Registrato: 22/03/08 18:34 Messaggi: 2137
|
Inviato: 23 Mag 2025 17:56 Oggetto: |
|
|
Inoltre, dubito che la liberta' di parola, si possa applicare anche alle macchine |
|
Top |
|
 |
{pepe} Ospite
|
Inviato: 26 Mag 2025 09:18 Oggetto: |
|
|
Indubbiamnte il chatbot ha fatto la sua parte, ma questa tragedia nasce, come tante altre, principalmente dalla solitudine di questo ragazzo, e dall'ignoranza della madre (e se c'è, del padre), che prima di scgliarsi all'esterno per trovare responsabilità, dovrebbe guardarsi dentro. |
|
Top |
|
 |
777omega777 Mortale devoto

Registrato: 22/07/13 15:24 Messaggi: 9
|
Inviato: 26 Mag 2025 13:45 Oggetto: |
|
|
Homer S. ha scritto: | La libertà di parola non è assoluta: lo rimane finché non lede gli altri diritti sanciti dalla Costituzione. Evidente che indurre al suicidio qualcuno non rientra in tale perimetro, quindi ben venga l'azione legale. |
Questo non è argomento da "libertà di parola"; si parla di un software che ha dato la risposta che doveva dare in base agli input che ha ricevuto.
Non è istigazione al suicidio, perché non c'è alcuna volontà dietro.
Oppure cosa vogliamo fare? Impedire che qualsiasi IA possa dire cose "cattive" perché sia mai come una persona possa interpretarle? Vietiamo anche la lettura, chissà come un adolescente può interpretare il contenuto di un libro, potrebbe anche ispirarlo a farla finita.
Da persona che il suicidio l'ha tentato, da adolescente, stai certo che nessuna IA può spingere una persona al suicidio e che qualsiasi cosa avrebbe potuto portare a quel gesto. In quanto si trovava in tale condizione, perché era immerso in tale contesto. |
|
Top |
|
 |
{emanuele} Ospite
|
Inviato: 26 Mag 2025 23:31 Oggetto: |
|
|
uno dei tanti problemi delle AI è che sono "stupide" possono conversare,ma non hanno consapevolezza di quello che dicono o leggono,un umano avrebbe cercato di aiutare il ragazzo,forse avrebbe evitato la tragedia,forse no,comunque i veri colpevoli sono i genitori che non hanno capito la situazione |
|
Top |
|
 |
zeross Amministratore


Registrato: 19/11/08 12:04 Messaggi: 8076 Residenza: Atlantica
|
Inviato: 27 Mag 2025 00:22 Oggetto: |
|
|
777omega777 ha scritto: | Homer S. ha scritto: | La libertà di parola non è assoluta: lo rimane finché non lede gli altri diritti sanciti dalla Costituzione. Evidente che indurre al suicidio qualcuno non rientra in tale perimetro, quindi ben venga l'azione legale. |
Questo non è argomento da "libertà di parola"; si parla di un software che ha dato la risposta che doveva dare in base agli input che ha ricevuto.
Non è istigazione al suicidio, perché non c'è alcuna volontà dietro.
Oppure cosa vogliamo fare? Impedire che qualsiasi IA possa dire cose "cattive" perché sia mai come una persona possa interpretarle? Vietiamo anche la lettura, chissà come un adolescente può interpretare il contenuto di un libro, potrebbe anche ispirarlo a farla finita.
Da persona che il suicidio l'ha tentato, da adolescente, stai certo che nessuna IA può spingere una persona al suicidio e che qualsiasi cosa avrebbe potuto portare a quel gesto. In quanto si trovava in tale condizione, perché era immerso in tale contesto. |
Tecnicamente la volontà che il gesto si compia o meno non è fondamentale per il verificarsi del reato di istigazione, ma per il perfezionamento del reato basta solo che l'istigazione venga accolta.
Per quanto riguarda il mezzo, il fatto che sia una IA non è rilevante, vi sono casi di storiografia giudiziaria di istigazione effettuati a mezzo lettera per cui anche questo rilievo e senza fondamento. |
|
Top |
|
 |
Homer S. Dio Kwisatz Haderach

Registrato: 24/12/21 10:59 Messaggi: 6370 Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?
|
Inviato: 27 Mag 2025 09:53 Oggetto: |
|
|
777omega777 ha scritto: | Da persona che il suicidio l'ha tentato, da adolescente, stai certo che nessuna IA può spingere una persona al suicidio e che qualsiasi cosa avrebbe potuto portare a quel gesto. In quanto si trovava in tale condizione, perché era immerso in tale contesto. |
Mi rendo conto che per te è un argomento difficile, come disse il comandante Koenig, ma la realtà è che le persone fragili sono vulnerabili ai suggerimenti di chi considerano una figura autorevole. Per te una IA non lo è e questo è un bene, ma la gente non approda a propositi suicidi sempre allo stesso modo, o nello stesso contesto, e molti individui sono suscettibili di subire questi condizionamenti.
Se hai letto l'articolo con attenzione, saprai che la IA era consapevole dell'intenzione del suo interlocutore e lo ha spronato a proseguirlo: questo è a tutti gli effetti istigazione al suicidio. Che l'abbia fatto perché programmata deliberatamente a quello scopo piuttosto che non istruita - come avrebbe dovuto essere - a riconoscere una situazione di pericolo tale da allertare un referente umano, nulla toglie alle responsabilità di chi quell'automa lo ha implementato.
E comunque:
777omega777 ha scritto: | Non è istigazione al suicidio, perché non c'è alcuna volontà dietro. |
Messa così, sembrerebbe che per te se uccido senza motivo non sono colpevole. Ovvio che non è così, tant'è vero che nel nostro ordinamento giuridico l'omicidio è, seppur attenuato, un reato anche se colposo o preterintenzionale. E ci mancherebbe il contrario. |
|
Top |
|
 |
Gladiator Dio maturo


Registrato: 05/12/10 21:32 Messaggi: 14238 Residenza: Purtroppo o per fortuna Italia
|
Inviato: 29 Mag 2025 19:05 Oggetto: |
|
|
{emanuele} ha scritto: | uno dei tanti problemi delle AI è che sono "stupide" possono conversare,ma non hanno consapevolezza di quello che dicono o leggono,un umano avrebbe cercato di aiutare il ragazzo,forse avrebbe evitato la tragedia,forse no,comunque i veri colpevoli sono i genitori che non hanno capito la situazione |
Che i genitori abbiano la loro parte di colpe nella triste vicenda mi sembra quantomeno molto probabile, però il chatbot non era certo programmato in modo da evitare di istigare determinate intenzioni o, in caso le registrasse, mandare un alert immediato ai supervisori del sistema in modo che agissero adeguatamente per salvaguardare il potenziale suicida.
In definitiva l'accusa formulata verso l'azienda:
Citazione: | «omicidio colposo, pratiche commerciali ingannevoli e negligenza» |
mi sembra adeguata e formalmente corretta poiché si parla proprio di omicidio colposo e negligenza. |
|
Top |
|
 |
777omega777 Mortale devoto

Registrato: 22/07/13 15:24 Messaggi: 9
|
Inviato: 03 Giu 2025 21:48 Oggetto: |
|
|
zeross ha scritto: |
Per quanto riguarda il mezzo, il fatto che sia una IA non è rilevante, vi sono casi di storiografia giudiziaria di istigazione effettuati a mezzo lettera per cui anche questo rilievo e senza fondamento. |
Di nuovo: Per coerenza dovremmo considerare l'autore del "I dolori del giovane Werther" come un istigatore al suicidio. O anche di innumerevoli film e canzoni che hanno accompagnato numerosi suicidi.
Anzi, potremmo andare anche sulla criminalità. Lo sapevi che il tasso di criminalità si alza o diminuisce a seguito dell'uscita di alcuni film e videogiochi? Quindi che facciamo?
Homer S. ha scritto: | Mi rendo conto che per te è un argomento difficile, come disse il comandante Koenig, ma la realtà è che le persone fragili sono vulnerabili ai suggerimenti di chi considerano una figura autorevole. Per te una IA non lo è e questo è un bene, ma la gente non approda a propositi suicidi sempre allo stesso modo, o nello stesso contesto, e molti individui sono suscettibili di subire questi condizionamenti. |
Il punto è nessuno può pensare che la IA sia una persona reale, nemmeno per sbaglio. Non parliamo nemmeno di un "ChatGPT" dove l'autorialità può derivare dall'apparente neutralità e fonte d'informazioni dalla dubbia qualità. Questo ragazzo è andato su un sito di RolePlay e ha fatto RolePlay con un personaggio di fantasia.
Poteva scaricarsi GTA e ruolare all'interno del gioco, o per via testuale con una persona vera e nessuno di questi avrebbe avuto alcuna responsabilità se dall'altra parte c'era una persona che voleva che qualcuno convalidasse le sue idee suicide.
Non era una persona suscettibile, era molto probabilmente una persona che voleva morire, aveva già pensato di morire e ha passato i suoi ultimi momenti giocando con una IA.
Per questo mi da fastidio come viene romanzato il tutto. Il giovane corrotto e vulnerabile da una macchina non senziente. Nessun libro ha mai spinto qualcuno a uccidersi, nessun film, ma ci sono delle persone in certi momenti che colgono la palla al balzo. Sia per farlo, sia per non farlo.
Anche il più stupido dei gesti può fermare una persona dal suicidio e un altrettanto stupido gesto può invece spingerlo a compiere l'atto, perché c'era un contesto, solitamente che dura settimane, magari contornato da iperattività seguita da quasi immobilismo, disturbi del sonno, anche dolori fisici ed ecc... c'era un contesto. Si ignora il contesto e si parla di vulnerabilità.
Non è difficile per me parlarne, ma mi è irritante, perché per me palesemente i genitori stanno colpevolizzando un mezzo usato da questo ragazzo per se stesso, e da persona che ci è passato non mi viene di fargliene una colpa, per deresponsabilizzarsi.
Il ragazzo ha fatto la sua scelta.
Ma non è stato traviato da un qualcosa, si è ritrovato nel contesto che si è ritrovato (e che io non conosco) e ora ci sono dei genitori che ridicolizzano i suoi ultimi momenti per sentirsi più leggeri dentro di se. Magari poi ne fanno un altro di figlio la cui unica differenza di trattamento è che gli toglieranno internet.
E trovo estremamente distopico l'idea che ci sia un referente che in presenza di qualcosa di soggettivamente "pericoloso" arrivi un referente umano a impicciarsi. Non c'è manco un'implementazione, si tratta di una LLM. Come incolpare Google Search perché fa Google Search.
Volontà inteso come "esistere". Se usi una pistola al contrario non è colpa della pistola, se usi una pistola contro qualcuno non è colpa della pistola. Non è manco colpa di chi l'ha costruita. Di chi è la colpa? Di chi la tiene in mano.
La pistola non ha una volontà, la pistola non ti uccide. Vieni ucciso attraverso una pistola.
La IA non ha volontà e non ha ucciso nessuno, una persona ha rinforzato le proprie idee suicide attraverso una IA. Poteva farlo da Google Search o leggendo un libro o guardando un film. Non cambia niente. |
|
Top |
|
 |
Homer S. Dio Kwisatz Haderach

Registrato: 24/12/21 10:59 Messaggi: 6370 Residenza: Ormai ci sono solo io qui in pianta stabile, che lo chiedete a fare?
|
Inviato: 04 Giu 2025 08:23 Oggetto: |
|
|
777omega777 ha scritto: | La IA non ha volontà e non ha ucciso nessuno |
Infatti non è la IA a finire sotto processo, è chi l'ha creata.
E per il resto, penso di non voler commentare ulteriormente. Non so che ne pensi tu, ma ho il netto sentore che questa faccenda ti abbia toccato più in profondità e più dolorosamente di quanto riporti. Insistere a discuterne con queste premesse mi pare solamente un cinico esercizio di dialettica. Non mi interessa fare la parte di una IA senza remore né scrupoli. |
|
Top |
|
 |
|
|
Non puoi inserire nuovi argomenti Non puoi rispondere a nessun argomento Non puoi modificare i tuoi messaggi Non puoi cancellare i tuoi messaggi Non puoi votare nei sondaggi
|
|