Così come lo è stata la nascita del world wide web o dello smartphone, l’introduzione dell’AI rappresenta una svolta epocale in ambito tecnologico.
L’AI è uno strumento straordinario ma, come altre tecnologie, anch’essa può diventare un’arma potente. È necessario quindi un lavoro importante per utilizzare l’AI e al contempo tutelare democrazia e diritti fondamentali, affinché questa tecnologia possa promuovere davvero una crescita inclusiva e sostenibile del pianeta.
La chiave del successo è quella di avviare un dialogo aperto a tutti gli attori coinvolti, unito ad azioni decise ed efficaci per poter definire gli ambiti di applicazione e sviluppare iniziative concrete e congiunte tra governi e organizzazioni.
Microsoft ha da sempre agito su questo fronte definendo in primis i sei principi etici dell’AI – responsabilità, inclusività, affidabilità e sicurezza, equità, trasparenza, privacy – e costruendo sistemi di ingegneria e di governance in costante miglioramento per mettere in pratica questi principi.
Oggi quasi 350 persone lavorano all’AI responsabile in Microsoft, contribuendo a implementare le migliori pratiche per costruire sistemi di AI sicuri, protetti e trasparenti a beneficio della società intera.
Microsoft nel 2020 ha inoltre siglato con la Pontificia Accademia per la Vita la Rome Call for an AI Ethics, documento nato per sostenere un approccio etico all’Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana e non la loro graduale sostituzione.
I progressi conseguiti grazie a questo approccio hanno dato la capacità di applicare l’AI in contesti sempre più ampi, in grado di dare un contributo significativo alle grandi sfide globali: dalla medicina alla cybersecurity.
L’AI può fornire, per esempio, anche previsioni per proteggere popolazioni da fenomeni atmosferici particolarmente pericolosi. Anche le attività quotidiane stanno traendo beneficio da questa ondata di innovazione. Agendo come copilota nella vita delle persone, la potenza dei modelli di AI generativa come Microsoft Copilot sta rivoluzionando la collaborazione e migliorando la produttività delle persone al lavoro.
Ma non è sufficiente concentrarsi solo sulle opportunità dell’AI. È fondamentale assicurare che le macchine rimangano soggette a un’efficace supervisione da parte delle persone e che le persone che progettano e gestiscono le macchine siano responsabili nei confronti di tutti gli altri.
In questo scenario, Microsoft ha sviluppato un documento con una proposta in cinque punti affinché possa contribuire al dibattito e allo stesso tempo al progresso sicuro di questa tecnologia.
In primo luogo, è necessario implementare e costruire nuovi quadri di riferimento per la sicurezza dell’AI, che siano guidati dai governi.
In secondo luogo, sviluppare nuovi requisiti di sicurezza che, di fatto, creerebbero una sorta di freno di controllo per i sistemi di AI che gestiscono il funzionamento di determinate infrastrutture critiche. Sarebbero simili ai “sistemi di frenata” che gli ingegneri hanno da tempo integrato in altre tecnologie come ascensori, scuolabus e treni ad alta velocità, per gestire in sicurezza non solo gli scenari quotidiani, ma anche le emergenze e dove la supervisione umana resta centrale.
Microsoft promuove anche l’istituzione di una nuova agenzia che regoli l’AI e fissi i requisiti di licenza.
Quarto punto, promuovere la trasparenza e garantire l’accesso all’AI da parte del mondo accademico e non profit.
Infine, è indispensabile perseguire nuove partnership pubblico-privato per utilizzare l’AI come strumento efficace per affrontare le inevitabili sfide sociali che si presentano con le nuove tecnologie.
Per ulteriori informazioni sull’approccio etico di Microsoft all’AI leggi il blog Microsoft on The Issues.