giovedì 13 aprile 2023

Ai

 💦 ma con regole ad hoc

[La velocità elettronica digitale in rete 🦂]

I nodi dell'innovazione Giovanna De Minico


«Fermate il treno, fateli scendere»». Così sintetizzerei la lettera con cui alcune Big Tech chiedevano di sospendere ChatGPT, non perché temessero per l'autonomia della mente umana, ma per lo svantaggio accumulato rispetto ai propri competitor.

 In poche parole, una lettera da battaglia di retroguardia in difesa dei concorrenti esistenti, non della concorrenza che avrebbe tratto beneficio dall'ingresso di nuove forze nel mercato online della comunicazione-informazione. La lettera potrebbe anche denunciare una diversa preoccupazione: «Fermate il mondo, scendiamo tutti>>.


Quest'ultima rimanda all'immagine di una tecnica arcigna, che l'uomo osserva con diffidenza. Un'innovazione da bloccare, non da governare per renderla amica dell'uomo. Ma come fare per conseguire l'obiettivo di una tecnica in posizione ancillare alla persona? Una regolazione chiara, minimale e cucita sul fatto potrebbe


essere un'idea da verificare. Solo che l'attuale disciplina è distante dal modello astratto: ChatGPTè al momento oggetto di troppe regole come di zero regole.


L'iper-regolazione è il difetto della proposta di regolamento europeo sull'Intelligenza artificiale. Questa, nell'iniziale formulazione della Commissione, non contemplava il fenomeno in esame, preso in considerazione solo da ultimo, quando il Consiglio europeo ha presentato


emendamenti all'atto originale. Il chatbot in questione è stato definito un


linguaggio generativo di nuove parole in base a quanto di regola accade; e


con presunzione assoluta è stata acquisita alla categoria dell'la ad alto


rischio. Con la conseguenza che il suo fornitore è obbligato a rispettare le


pesanti regole disegnate sul modello comune di intelligenza artificiale e


quindi poco adatte al nuovo fenomeno. A ciò si aggiunga che queste regole 

Solo che l'attuale disciplina è distante dal modello astratto: ChatGPT'è al momento oggetto di troppe regole come di zero regole.


L'iper-regolazione è il difetto della proposta di regolamento europeo sull'Intelligenza artificiale. Questa, nell'iniziale formulazione della Commissione, non contemplava il fenomeno in esame, preso in considerazione solo da ultimo, quando il Consiglio europeo ha presentato emendamenti all'atto originale. Il chatbot in questione è stato definito un linguaggio generativo di nuove parole in base a quanto di regola accade; e con presunzione assoluta è stata acquisita alla categoria dell'la ad alto rischio. Con la conseguenza che il suo fornitore è obbligato a rispettare le pesanti regole disegnate sul modello comune di intelligenza artificiale e quindi poco adatte al nuovo fenomeno. A ciò si aggiunga che queste regole -valutazione anticipata del rischio e misure per minimizzarlo-sono inutilmente gravose perché si applicano a ogni chat a prescindere dalla verifica della pericolosità o meno del suo concreto scopo. Si pensi ai biglietti che i genitori scrivono con la chat per la festa dei figli. Dove è il rischio?


Dimenticare qualche bambino da invitare? La mia idea è abbandonare la tecnica delle valutazioni legali tipiche e aprire invece a una regolazione che spezzi la catena del valore della chat per assegnare la responsabilità ai singoli operatori in ragione dell'effettiva pericolosità del rispettivo compito. Una cosa è la responsabilità del fornitore che ha ideato il modello astratto, altra quella del suo sviluppatore, che lo ha addestrato per uno scopo reale, che potrebbe comportare danni a intere categorie di soggetti: si pensi, alla chat impiegata per selezionare l'affidabilità dei lavoratori da assumere o per valutare la solvibilità di chi chiede un prestito bancario.



Ma ChatGPTè anche oggetto di trascuratezza del legislatore europeo, che


con il Digital services act (Dsa) l'ha dimenticata nella penna. L'atto impone al provider, cioè alle grandi piattaforme, l'obbligo di controllare, su puntuale reclamo, l'illiceità dei contenuti ospitati e, se del caso, di cancellarll. L'atto promuove i provider a spazzini privati del web per evitare che circoli troppa immondizia e si alimenti la disinformazione. In tempo di elezioni la commistione tra vero e falso è il pericolo velato per la salute della democrazia, perché inquina il sereno formarsi del consenso dei cittadini. Ebbene, davanti a una chat che dice il falso non possiamo difenderci per due ragioni:


Il Dsa nel Considerandum 14 esclude la sua applicazione ai servizi di messaggistica privata, e la chat rientra in questa esclusione, trattandosi per ora di una forma di comunicazione verso soggetti determinati, non di una modalità di diffusione del pensiero verso tutti, per dirla con le categorie del diritto costituzionale la chat è 15, non 21 Cost.



Il Dsa ha come destinatari dell'obbligo di controllo ex post i provider, e, se tra questi il più attivo, è l'hosting, cioè colui che ospita il pensiero altrui, ChatGPT invece assume una posizione attiva nella catena della


comunicazione perché è lei a produrre il messaggio, non a ospitare quello altrui, anche se il suo produrre parole, pensieri non è autentico perché sintetizza e rielabora dati già esistenti su Internet. Allora anche in questo caso si avverte il bisogno di disegnare una disciplina ad hoc, in grado di applicare alla chat solo alcune delle regole del Dsa, in considerazione chei suoi post, una volta generati, sono caricabili su una piattaforma, ma soprattutto per la sua capacità di pescare in autonomia i dati in rete, il che aumenterà in un futuro imminente il rischio di un'informazione torbida. Non è la paura l'atteggiamento corretto verso la tecnologia, ma la pazienza di spezzettarla in tanti frammenti per poi ideare le regole che mettano insieme in una misura di equilibrio innovazione e diritti fondamentali. Per meno non dovremmo muoverci.


Docente di Diritto Costituzionale nell'Università Federico II di Napoli