«Il processo di soggettivazione dell’intelligenza artificiale, generato dalla capacità regolativa che è propria dell’autonomia dei privati, tanto nel perseguimento di interessi generali che particolari, unitamente alla connessione di essa con la dignità dell’uomo, avviano senza esitazioni gli autori algoritmici e gli attanti macchinici verso un processo di responsabilizzazione. Non è soltanto una responsabilità civile ma anche sociale che induce ad impedire che l’AI divenga causa di aggravamento delle differenze piuttosto che veicolo di eguaglianza. L’interprete di ogni angolo della galassia giuridica deve assumere una posizione coerente con la legge fondamentale della Repubblica e ogni ritrovato della scienza non deve sottrarsi al primato del diritto come strumento per la costruzione di una società giusta. La lenezza dell’interprete, brandita come inno alla libertà, spesso malcela la scelta ideologica di chi vuole far prevalere la giustizia della forza (economica o tecnica) piuttosto che la forza della giustizia. Le Costituzioni contengono delle “ideologie reali”, ideologie, perché portatrici della speranza di un progetto ideale, reali, perché munite della precettività della norma giuridica. Gli interpreti e applicatori devono avere la consapevolezza della responsabilità di non disattendere la speranza di un’ideologia imperativa. Anche l’umanità automata deve assolvere alla funzione sociale di consentire e agevolare l’“accessibilità a tutti” di quelle applicazioni dell’intelligenza artificiale che garantiscono il “minimo vitale”. Altrimenti, se è possibile che il leone e il vitello giacciano insieme, è pur vero che il vitello dormirà poco».

L'intelligenza artificiale "sostenibile" e il processo di socializzazione del diritto civile

caterini enrico
2020-01-01

Abstract

«Il processo di soggettivazione dell’intelligenza artificiale, generato dalla capacità regolativa che è propria dell’autonomia dei privati, tanto nel perseguimento di interessi generali che particolari, unitamente alla connessione di essa con la dignità dell’uomo, avviano senza esitazioni gli autori algoritmici e gli attanti macchinici verso un processo di responsabilizzazione. Non è soltanto una responsabilità civile ma anche sociale che induce ad impedire che l’AI divenga causa di aggravamento delle differenze piuttosto che veicolo di eguaglianza. L’interprete di ogni angolo della galassia giuridica deve assumere una posizione coerente con la legge fondamentale della Repubblica e ogni ritrovato della scienza non deve sottrarsi al primato del diritto come strumento per la costruzione di una società giusta. La lenezza dell’interprete, brandita come inno alla libertà, spesso malcela la scelta ideologica di chi vuole far prevalere la giustizia della forza (economica o tecnica) piuttosto che la forza della giustizia. Le Costituzioni contengono delle “ideologie reali”, ideologie, perché portatrici della speranza di un progetto ideale, reali, perché munite della precettività della norma giuridica. Gli interpreti e applicatori devono avere la consapevolezza della responsabilità di non disattendere la speranza di un’ideologia imperativa. Anche l’umanità automata deve assolvere alla funzione sociale di consentire e agevolare l’“accessibilità a tutti” di quelle applicazioni dell’intelligenza artificiale che garantiscono il “minimo vitale”. Altrimenti, se è possibile che il leone e il vitello giacciano insieme, è pur vero che il vitello dormirà poco».
2020
978 88 495 4160 1
Intelligenza artificiale - diritto civile - soggettività
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.11770/304603
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact