Oggigiorno, i sistemi basati sull’apprendimento automatico sono utilizzati per prendere decisioni che hanno effetti rilevanti sulle vite delle persone, a una velocità e su una scala che non consentono un controllo umano significativo (troppi dati da analizzare manualmente).
Onde evitare che queste intelligenze artificiali facciano danni nella società, i professori F. Pasquale e G. Malgieri suggeriscono che, per rendere legali simili tecnologie, il fornitore debba prima essere in grado di dimostrare che esse non siano discriminatorie, manipolatorie, inaccurate né illegittime (sia sul piano giuridico che nel loro uso).
In questo modo, oltre che a fornire strumenti equi, sarebbe possibile fare rispettare principi come quello del trattamento dei dati personali – fissati all’articolo 5 dell’RGPD.