Gli Stati Uniti e i suoi alleati economici presentano la visione “democratica” per le AI

L’amministrazione Trump potrà anche innalzare mura fra gli Stati Uniti d’America ed alcuni paesi, ma è ansiosa di forgiare nuove alleanze quando si tratta di dare forma al percorso dell’intelligenza artificiale.

di Will Knight

L’Organisation for Economic Co-operation and Development (OECD), una coalizione di paesi dedicata alla promozione della democrazia e dello sviluppo economico, ha annunciato una raccolta di principi per l’intelligenza artificiale. L’annuncio è stato dato in occasione di un incontro dell’OECD Forum a Parigi.

La Cina non figura fra i membri della coalizione; i principi esposti dall’OECD sarebbero in contrasto con la metodica adottata dal governo e dalle società cinesi per sviluppare e adottare sistemi di intelligenza artificiale, specialmente per quanto concerne riconoscimento facciale e sorveglianza di gruppi etnici associati ad azioni di dissenso politico.

Alla presentazione dei principi concordati fra i membri dell’OECD, il nuovo CTO americano Michael Kratsios ha detto: “Siamo lieti che le raccomandazioni dell’OECD sull’AI considerino tanti dei problemi che l’American AI Initiative sta cercando di affrontare”.

Stando ai principi dell’OECD sull’AI:

– L’intelligenza artificiale dovrebbe giovare alle persone e al pianeta stimolando crescita inclusiva, sviluppo sostenibile e benessere.

– I sistemi di AI dovrebbero essere progettati in maniera tale da rispettare le normative legali, i diritti umani, i valori democratici e la diversità, e dovrebbero includere sistemi di sicurezza – ad esempio, permettendo agli esseri umani di intervenire in caso di necessità – al fine di garantire una società equa e giusta.

– Trasparenza e divulgazione responsabile sullo sviluppo dei sistemi di AI andrebbero considerati necessari per garantire la comprensione dei risultati presentati da tali sistemi e la loro eventuale contestazione da parte degli esseri umani.

– I sistemi di intelligenza artificiale devono operare in maniera solida, protetta e sicura durante il loro intero ciclo di vita, e qualunque rischio potenziale andrebbe continuamente affrontato e controllato.

– Organizzazioni e individui impegnati nello sviluppo, nell’implementazione o nel mantenimento di sistemi di AI andrebbero considerati responsabili del loro corretto funzionamento in linea con i principi sopra illustrati.

Related Posts
Total
0
Share