Ja és públic el primer informe Global Index on Responsible AI (GIRAI), elaborat sobre tres pilars, tres dimensions i 19 àrees temàtiques. Des d’Amèrica Central fins a Àsia, els autors es van comprometre i a consultar amb una multitud d’interessats d’arreu del món per desenvolupar la metodologia del treball, basada en una pregunta clau, què és la IA responsable?. Els autors se sinceren declarant que “quan es tracta de fer un seguiment i mesurar la IA responsable, és important que estigui clarament definida. Per a nosaltres, això significa definir una IA responsable des de la perspectiva dels drets humans”.
Què és la IA responsable? El Global Index on Responsible AI defineix la IA responsable com: el disseny, desenvolupament, desplegament i govern de la IA d’una manera que respecta i protegeix tots els drets humans i manté els principis de l’ètica de la IA a totes les etapes del cicle de vida de la IA i de la cadena de valor. Requereix que tots els actors implicats en l’ecosistema nacional d’IA assumeixin la responsabilitat dels impactes humans, socials i ambientals de les seves decisions. El disseny responsable, el desplegament i la governança de la IA són proporcionals a la finalitat del seu ús i satisfan les necessitats tecnològiques de les persones i les societats a les quals pretén servir.
L’informe, desenvolupat amb la col·laboració d’investigadors de 138 països i impulsat des del sud global, avalua l’estat actual de la IA responsable, subratllant tant els esforços com els desafiaments dels països en l’adopció de pràctiques d’IA que respectin els drets humans i promoguin un enfocament ètic. Ha estat possible amb l’ajut d’una subvenció del Centre de Recerca per al Desenvolupament Internacional, Ottawa, Canadà, finançat en part pel govern del Canadà, i una subvenció addicional de USAID.
L’Estat espanyol ocupa el lloc 16 global, destacant en igualtat de gènere, protecció de dades i privacitat. Segons l’informe, Espanya ha implementat marcs reguladors i accions governamentals com l’Estratègia d’Intel·ligència Artificial, i ha establert el Consell Assessor Internacional d’IA per assessorar el Govern en regulació d’aquestes tecnologies. A més, les universitats i organitzacions de la societat civil han estat cabdals a promoure la IA responsable.
Una representació creuada de les puntuacions dels països en els diferents pilars de l’Índex global d’IA responsable demostra que, tot i que hi ha una agrupació significativa de països que puntuen per sota de 25 en tots els pilars i un grup més petit de països amb un bon rendiment en tots els pilars, hi ha una diversitat significativa en el rendiment dels països dels diferents pilars que es troben entre els dos grups. El que això indica, segons l’informe, és que hi ha moltes vies per aconseguir una IA responsable. Per exemple, es diu en la part final del treball, tot i que el Japó obté una puntuació força baixa en els marcs governamentals, té una puntuació alta en les accions governamentals. I tot i que Eslovènia té una puntuació alta en marcs governamentals, la seva puntuació per a les accions governamentals és molt més baixa. No obstant això, tots dos països tenen puntuacions generals similars.
El primer informe del GIRAI, certament, és un pas important cap a la construcció d’una estratègia global per a la IA responsable, integrant els drets humans com a fonament de la governança de la IA. Preocupa, però, en general, que l’avaluació del treball reforça la bretxa entre el ritme ràpid del desenvolupament i l’adopció de la IA, superant el progrés molt més lent en la implementació de la IA responsable. Subratlla la importància de la cooperació internacional entre governs, el paper actiu dels actors no estatals i la necessitat de sistemes d’IA inclusius i equitatius. Les troballes demanen accions urgents per salvar aquestes llacunes i promoure el desenvolupament ètic i el desplegament de la IA.
Els autors ens indiquen explícitament que l’adopció de marcs reguladors sòlids, la implementació d’accions governamentals efectives i el foment de la cooperació internacional són essencials per tancar les bretxes existents i assegurar un desenvolupament ètic i segur de la IA.
Segons els seus autors (Rachel Adams, Fola Adeleke, Ana Florido, Larissa Galdino de Magalhães Santos, Nicolás Grossman, Leah Junck i Kelly Stone), aquest informe constitueix un resum de les conclusions clau de la recollida de dades global realitzada com a part de la primera edició de l’Índex global d’IA responsable. Totes les dades que es van recollir per al GIRAI estan disponibles de manera gratuïta i oberta en aquest enllaç. – BeMediàtic/Àmbit d’Estratègia (Il·lustració: DALL-E)