Tempo di lettura ca.: 1 minuti, 27 secondi
In uno studio pubblicato ieri, il Servizio di ricerca del Parlamento europeo (EPRS) ha raccomandato che la regolamentazione della responsabilità includa prodotti di intelligenza artificiale (IA) di uso generale e uno strumento giuridico più ampio per la responsabilità del software. Lo studio raccomanda un regime di responsabilità con un ambito che copra l’IA di uso generale e gli usi proibiti e ad alto rischio dell’IA, come definiti nell’AI Act. L’EPRS ha anche raccomandato che la proposta di direttiva sulla responsabilità per l’intelligenza artificiale (AILD) venga trasformata in uno strumento di responsabilità per il software più ampio.
L’AILD, proposta a settembre 2022, mira ad adattare le norme sulla responsabilità civile extracontrattuale all’IA. Va di pari passo con le modifiche alla Product Liability Directive (PLD), una direttiva vecchia di 40 anni che assegna responsabilità e sanzioni per i prodotti difettosi. Lo studio ha esaminato in particolare l’interazione tra l’AILD, l’AI Act e il PLD aggiornato, che include il software. Dopo la raccomandazione del Servizio di ricerca, “i prossimi passi della commissione JURI che si occupa di affari legali saranno decisi in ottobre”, ha affermato l’eurodeputato Axel Voss (PPE, Germania), che dirige i lavori sull’AILD presso la commissione secondo quanto riferito da Euractiv.
La proposta della Commissione per l’AILD è rimasta all’esame delle commissioni parlamentari per oltre un anno, in attesa dello studio che esamini i prossimi passi. L’EPRS ha affermato che l’ambito di applicazione dell’AILD dovrebbe essere esteso per passare “da una direttiva incentrata sull’intelligenza artificiale a una regolamentazione sulla responsabilità del software, per prevenire la frammentazione del mercato e migliorare la chiarezza nell’UE”. Lo studio ha evidenziato diversi ambiti coperti dall’AILD ma non dal PLD, come la discriminazione, l’incitamento all’odio e i diritti fondamentali.
L’EPRS ha criticato la precedente valutazione d’impatto della Commissione che accompagnava la proposta AILD perché prestava poca attenzione alla risoluzione del Parlamento del 2020 che chiedeva di imporre un regime di “responsabilità oggettiva” agli operatori di sistemi di intelligenza artificiale ad alto rischio. La “responsabilità oggettiva” comporta la responsabilità legale anche in assenza di colpa o intento criminale, e l’EPRS ritiene che dovrebbe applicarsi almeno all’IA, che è vietata ai sensi dell’AI Act. Raccomandano inoltre di considerare il quadro del Parlamento del 2020 per l’applicazione della responsabilità oggettiva ai sistemi “ad alto impatto”.
Lo studio ha descritto il controverso disegno di legge 1047 del Senato della California come un esempio di responsabilità oggettiva per l’intelligenza artificiale, accennando alla possibilità di un “effetto California”. L’EPRS ha scritto che le normative sulla responsabilità garantirebbero meglio standard coerenti in tutta l’UE e si allineerebbero meglio alle tendenze attuali nella legge sulla sicurezza dei prodotti rispetto alle direttive sulla responsabilità. Chiedono una revisione del Product Liability Regulation e del software liability regulation.
The post Intelligenza artificiale, studio Europarlamento: direttiva su responsabilità includa anche AI e software first appeared on AGEEI.