La questione della responsabilità legale nell'era dell'intelligenza artificiale sta assumendo contorni sempre più definiti negli Stati Uniti, dove la senatrice repubblicana Cynthia Lummis del Wyoming ha presentato una proposta legislativa che potrebbe ridefinire i rapporti tra sviluppatori di IA e professionisti che utilizzano questi strumenti. Il RISE Act (Responsible Innovation and Safe Expertise Act) del 2025 rappresenta un tentativo di bilanciare l'innovazione tecnologica con la necessità di mantenere standard di trasparenza e responsabilità, senza però arrivare a imporre l'apertura completa del codice sorgente dei modelli di intelligenza artificiale. La proposta arriva in un momento in cui il dibattito sulla regolamentazione dell'IA si fa sempre più acceso, con preoccupazioni crescenti riguardo ai cosiddetti "sistemi black box" che operano senza fornire spiegazioni comprensibili sui loro processi decisionali.
Un framework di responsabilità condivisa
Il cuore della proposta legislativa di Lummis risiede nella definizione di un sistema di responsabilità condivisa tra professionisti e sviluppatori di IA. Secondo il RISE Act, medici, avvocati, ingegneri e consulenti finanziari mantengono la piena responsabilità legale per i consigli che forniscono ai loro clienti, anche quando questi sono supportati da sistemi di intelligenza artificiale. Questa impostazione riflette il principio secondo cui la tecnologia deve rimanere uno strumento nelle mani del professionista, non un sostituto del giudizio umano.
Gli sviluppatori di IA, dal canto loro, possono ottenere una protezione dalla responsabilità civile solo a condizione di rispettare specifici obblighi di trasparenza. La legge proposta esclude categoricamente qualsiasi forma di immunità in casi di negligenza grave, condotta intenzionalmente scorretta, frode o false dichiarazioni, mantenendo così un deterrente contro comportamenti irresponsabili.
Le "carte modello": trasparenza senza sacrificare i segreti commerciali
Il meccanismo centrale del RISE Act ruota attorno al concetto di "model cards", documenti tecnici dettagliati che gli sviluppatori devono rendere pubblici per beneficiare della protezione legale. Queste carte devono contenere informazioni cruciali: le fonti dei dati utilizzati per l'addestramento, i casi d'uso previsti, le metriche di performance, i limiti noti del sistema e le modalità di fallimento potenziali. L'obiettivo è fornire ai professionisti gli strumenti necessari per valutare se un determinato sistema di IA sia appropriato per il loro specifico ambito di lavoro.
La proposta mantiene un equilibrio delicato tra trasparenza e protezione della proprietà intellettuale. Gli sviluppatori possono infatti omettere informazioni proprietarie dalle loro divulgazioni, purché queste omissioni non riguardino aspetti legati alla sicurezza e siano accompagnate da giustificazioni scritte che spieghino l'applicazione dell'esenzione per segreto commerciale.
Aggiornamenti continui e responsabilità dinamica
Un aspetto particolarmente innovativo del RISE Act riguarda l'imposizione di obblighi di aggiornamento continuo. Gli sviluppatori devono aggiornare la documentazione e le specifiche dei loro sistemi entro 30 giorni dal rilascio di nuove versioni o dalla scoperta di modalità di fallimento significative. Questo requisito riconosce la natura evolutiva dei sistemi di IA e la necessità di mantenere le informazioni di sicurezza sempre aggiornate.
La tempestività di questi aggiornamenti diventa cruciale considerando la velocità con cui i sistemi di intelligenza artificiale vengono modificati e migliorati. La legislazione proposta cerca di evitare situazioni in cui i professionisti si trovino a utilizzare strumenti dei quali non comprendono appieno le limitazioni più recenti.
Il dibattito sui modelli chiusi versus aperti
La decisione di non richiedere l'apertura completa del codice sorgente rappresenta forse l'aspetto più controverso della proposta. Come ha sottolineato Simon Kim, CEO di Hashed, uno dei principali fondi di venture capital della Corea del Sud, la concentrazione del controllo su sistemi di IA chiusi nelle mani di poche entità presenta rischi significativi. La sua osservazione che "creare questo tipo di modello fondamentale closed source è simile a creare un 'dio'" del quale non comprendiamo il funzionamento, evidenzia le preoccupazioni della comunità tecnologica internazionale.
Il RISE Act tenta di navigare tra queste preoccupazioni e le realtà commerciali dell'industria dell'IA. La soluzione proposta cerca di ottenere trasparenza sufficiente per la sicurezza senza distruggere gli incentivi all'innovazione che derivano dalla protezione della proprietà intellettuale. Resta da vedere se questo compromesso soddisferà sia i critici dei sistemi chiusi che le aziende tecnologiche.
Come ha dichiarato la senatrice Lummis, "questa legislazione non crea un'immunità generale per l'IA", sottolineando invece l'intenzione di creare standard prevedibili che incoraggino lo sviluppo di IA più sicura preservando al contempo l'autonomia professionale. Il successo di questo approccio dipenderà dall'efficacia con cui riuscirà a bilanciare le esigenze di tutti gli stakeholder coinvolti nell'ecosistema dell'intelligenza artificiale.