Perché la sezione 230, lo scudo della responsabilità americana preferita dei social media, potrebbe non proteggere le grandi tecnologie nell’età dell’IA

Perché la sezione 230, lo scudo della responsabilità americana preferita dei social media, potrebbe non proteggere le grandi tecnologie nell’età dell’IA



Meta, la società madre delle app di social media tra cui Facebook e Instagram, non è estranea al controllo su come le sue piattaforme influenzano i bambini, ma mentre la società si spinge ulteriormente in prodotti basati sull’intelligenza artificiale, si trova ad affrontare una nuova serie di problemi.

All’inizio di quest’anno, interno documenti ottenuti da Reuters ha rivelato che il chatbot AI di Meta potrebbe, sotto le linee guida ufficiali dell’azienda, impegnarsi in conversazioni “romantiche o sensuali” con i bambini e persino commentare la loro attrattiva. Da allora la società ha detto gli esempi segnalati da Reuters erano errati e sono stati rimossi, ha detto un portavoce Fortuna: “Mentre continuiamo a perfezionare i nostri sistemi, stiamo aggiungendo più guardrail come precauzione aggiuntiva, tra cui la formazione dei nostri AIS a non impegnarsi con gli adolescenti su questi argomenti, ma per guidarli a risorse di esperti e limitare l’accesso per adolescenti per ora.

Meta non è l’unica società tecnologica che deve affrontare un controllo sui potenziali danni dei suoi prodotti AI. Openai e Startup Personal.ai sono entrambi attualmente difendere le cause legali che sostengono che i loro chatbot hanno incoraggiato i minori a togliersi la vita; entrambe le società negano le affermazioni e precedentemente detto Fortuna avevano introdotto di più Controlli parentali in risposta.

Per decenni, i giganti tecnologici sono stati protetti da cause legali simili negli Stati Uniti per contenuti dannosi dalla sezione 230 del Communications Decency Act, a volte noto come “le 26 parole che hanno fatto Internet”. La legge protegge le piattaforme come Facebook o YouTube da reclami legali sui contenuti degli utenti che appare sulle loro piattaforme, trattando le aziende come host neutrali, simili alle compagnie telefoniche, rispetto agli editori. I tribunali hanno rafforzato a lungo questa protezione. Ad esempio, AOL ha schivato la responsabilità per i posti diffamatori in un caso giudiziario del 1997, mentre Facebook ha evitato una causa legata al terrorismo nel 2020, basandosi sulla difesa.

Ma mentre la Sezione 230 ha storicamente protette le società tecnologiche dalla responsabilità per contenuti di terze parti, gli esperti legali affermano che la sua applicabilità ai contenuti generati dall’IA non è chiara e in alcuni casi è improbabile.

“La sezione 230 è stata costruita per proteggere le piattaforme dalla responsabilità per cosa utenti Dì, non per ciò che generano le piattaforme stesse. Ciò significa che l’immunità sopravvive spesso quando l’intelligenza artificiale viene utilizzata in modo estrattivo: citazioni, frammenti o fonti per un motore di ricerca o un mangime ”, ha detto Chinmayi Sharma, professore associato alla Fordham Law School, Fortuna. “I tribunali si sentono a proprio agio nel trattare questo come hosting o cura di contenuti di terze parti. Ma i chatbot basati su trasformi non si estraggono.

“Sembra molto meno un intermediazione neutrale e molto più come il discorso scritto”, ha detto.

Al centro del dibattito: gli algoritmi di AI stanno modellando il contenuto?

La protezione della Sezione 230 è più debole quando le piattaforme modellano attivamente il contenuto piuttosto che ospitarli. Mentre i tradizionali guasti a moderati post di terze parti sono generalmente protetti, le scelte di progettazione, come la costruzione di chatbot che producono contenuti dannosi, potrebbero esporre le aziende alla responsabilità. I tribunali non hanno ancora affrontato questo, senza decisioni fino ad oggi sul fatto che il contenuto generato dall’AI sia coperto dalla sezione 230, ma gli esperti legali hanno affermato che l’IA che provoca gravi danni, specialmente ai minori, è improbabile che sia pienamente schermato ai sensi della legge.

Alcuni casi sulla sicurezza dei minori vengono già combattuti in tribunale. Tre azioni legali hanno accusato separatamente Openai e Personaggio.ai della costruzione di prodotti che danneggiano i minori e di un mancato protezione degli utenti vulnerabili.

Pete Furlong, ricercatore di politiche principali per il Center for Humane Technology, che ha lavorato sul caso contro il personaggio., Ha affermato che la società non ha rivendicato una difesa della Sezione 230 in relazione al caso del 14enne Sewell Setzer III, che è morto per suicidio nel febbraio 2024.

“Personal.ai ha preso una serie di difese diverse per cercare di respingere questo, ma in questo caso non hanno rivendicato la sezione 230 come difesa”, ha detto Fortuna. “Penso che sia davvero importante perché è una specie di riconoscimento da parte di alcune di queste aziende che probabilmente non è una difesa valida nel caso dei chatbot dell’IA.”

Sebbene abbia notato che questo problema non è stato risolto definitivamente in un tribunale, ha affermato che le protezioni della sezione 230 “quasi certamente non si estendono ai contenuti generati dall’IA”.

I legislatori stanno prendendo preventivo Passi

Tra le crescenti segnalazioni di danni del mondo reale, alcuni legislatori hanno già cercato di garantire che la sezione 230 non possa essere utilizzata per proteggere le piattaforme di intelligenza artificiale dalla responsabilità.

Nel 2023, “No Sezione 230 Immunity for Ai Act” del senatore Josh Hawley ha cercato di modificare la sezione 230 del Communications Decency Act per escludere l’intelligenza artificiale generativa (AI) dalle sue protezioni di responsabilità. Il disegno di legge, che è stato successivamente bloccato al Senato a causa di un’obiezione del senatore Ted Cruz, mirava a chiarire che le società di intelligenza artificiale non sarebbero state immuni dalla responsabilità civile o penale per i contenuti generati dai loro sistemi. Hawley ha continuato per sostenere l’intera abrogazione della sezione 230.

“L’argomento generale, date le considerazioni politiche alla base della sezione 230, è che i tribunali hanno e continueranno ad estendere le protezioni della Sezione 230 il più possibile per fornire protezione alle piattaforme”, ha detto a Collin R. Walke, un avvocato di privacy dei dati con sede in Oklahoma, Fortuna. “Pertanto, in previsione di ciò, Hawley ha proposto la sua fattura. Ad esempio, alcuni tribunali hanno affermato che fintanto che l’algoritmo è” contenuto neutrale “, allora la società non è responsabile dell’output delle informazioni in base all’input dell’utente.”

I tribunali hanno precedentemente stabilito che gli algoritmi che semplicemente organizzano o abbinano il contenuto dell’utente senza alterarlo sono considerati “contenuti neutrali”, e le piattaforme non sono trattate come creatori di quel contenuto. Con questo ragionamento, una piattaforma di intelligenza artificiale il cui algoritmo produce output basati esclusivamente sull’elaborazione neutra di input dell’utente potrebbe anche evitare la responsabilità per ciò che gli utenti vedono.

“Da un punto di vista testuale puro, le piattaforme di intelligenza artificiale non dovrebbero ricevere la protezione della Sezione 230 perché il contenuto viene generato dalla piattaforma stessa. Sì, il codice determina effettivamente quali informazioni vengono comunicate all’utente, ma sono ancora il codice e il prodotto della piattaforma, non di una terza parte”, ha detto Walke.

Forum Global Fort Ritorna dal 26 al 27 ottobre 2025 a Riyadh. Gli amministratori delegati e i leader globali si riuniranno per un evento dinamico e solo su invito che modella il futuro del business. Richiedere un invito.



Source link

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back To Top