Credits to Unsplash.com
04.09.2019
Redazione

Machines and moral responsibility

Video di presentazione della piattaforma webMoral Machine” creata dal Massachusetts Institute of Technology (MIT)

La teoria legale moderna accetta il concetto che sia le persone che le compagnie possono essere imputate di un reato. E per quanto riguarda un’intelligenza sintetica? Può raggiungere i requisiti di responsabilità morale? Sì, può. Se è sufficientemente capace di percepire gli aspetti moralmente rilevanti del suo ambiente e ha libertà di azione, si qualifica come un agente morale

«Questi sistemi non devono essere molto sofisticati per incrociare questo confine apparentemente antropologico. Un tagliaerba automatico può riuscire a vedere se sta per passare sulla gamba di un bambino invece che su un ramo e può essere in grado di scegliere se fermarsi o continuare».

La domanda, naturalmente, è come si suppone che “sappia” di doversi fermare in un caso e non nell’altro. Senza qualche sorta di orientamento, non ci aspetteremmo a priori che prenda la decisione giusta

J. Kaplan, Le persone non servono. Lavoro e ricchezza nell'epoca dell'intelligenza artificiale, 2016, p. 80

Altro

A meeting of knowledge on individual and society
to bring out the unexpected and the unspoken in criminal law

 

ISSN 2612-677X (website)
ISSN 2704-6516 (journal)

 

The Journal does not impose any article processing charges (APC) or submission charges