La Comissió Europea ha fet públic l’esborrany final del Codi de bones pràctiques per als sistemes d’intel·ligència artificial d’ús general (General-Purpose AI, GPAI), una fita clau en el desplegament del reglament europeu de la IA (AI Act), que entra en la seva fase d’implementació gradual. Aquest Codi, tot i ser voluntari, s’ha concebut com un instrument de transició per fomentar la responsabilitat, la transparència i la seguretat en l’ús dels sistemes d’IA abans que les obligacions legals siguin d’aplicació plena.
Consulta aquí el document complet (Comissió Europea, juliol 2025)
Aquest codi ha estat co-desenvolupat per un ampli grup de parts interessades: desenvolupadors de models fundacionals, representants d’empreses tecnològiques, organitzacions de la societat civil, acadèmics i autoritats reguladores. L’objectiu és fixar unes pautes clares, pràctiques i adaptables perquè els desenvolupadors i usuaris d’aquesta tecnologia puguin operar amb garanties ètiques i tècniques.
Què són els models GPAI i per què cal regular-los?
Els models GPAI —com ara GPT-4 d’OpenAI, Gemini de Google o Claude d’Anthropic— són sistemes d’IA versàtils que poden aplicar-se a una àmplia gamma de tasques: des de la redacció de textos fins a la programació, la generació d’imatges o el suport en presa de decisions.
Tot i el seu potencial, aquests models plantegen riscos importants: opacitat en el seu funcionament, biaixos, manipulació d’informació, ús maliciós o impacte en els drets fonamentals. El Codi GPAI vol ser una resposta anticipada, proporcionant una base comuna per a la responsabilitat col·lectiva i fomentant un ecosistema europeu d’IA fiable.
Principals eixos del Codi GPAI
L’esborrany final, publicat el 10 de juliol de 2025, inclou 9 compromisos clau que cobreixen tot el cicle de vida dels sistemes GPAI. Aquests són els punts més destacats:
- Avaluació de riscos i impactes.- Les organitzacions s’han de comprometre a identificar i minimitzar els riscos associats a l’ús del seu model GPAI, especialment els que afectin els drets fonamentals o puguin tenir un impacte social negatiu.
- Transparència i divulgació responsable.- Cal oferir informació clara sobre les capacitats, limitacions i casos d’ús del model. Això inclou etiquetar continguts generats per IA o comunicar si el sistema ha estat utilitzat en processos de decisió automatitzada.
- Supervisió humana i governança.- S’impulsa la inclusió de mecanismes de control humà, amb procediments de rendició de comptes i governança responsable en tota la cadena de valor de la IA.
- Seguretat i robustesa.- Els sistemes han de ser resilients davant de manipulacions, errors o atacs. Es promouen pràctiques de seguretat tècnica, així com mecanismes per a la gestió de vulnerabilitats.
- Protecció de dades i privacitat.- El codi reforça el compromís amb el RGPD i insta a evitar l’entrenament de models amb dades personals no autoritzades o sensibles.
- Inclusió i reducció de biaixos.- Les entitats signants han d’implementar controls per detectar i mitigar possibles biaixos en la resposta dels models, amb especial atenció a col·lectius vulnerables o minoritzats.
- Col·laboració i interoperabilitat.- Es recomana la col·laboració entre actors per compartir bones pràctiques, metodologies d’avaluació i recursos tècnics per fer l’IA més segura i transparent.
- Educació i sensibilització pública.- Els desenvolupadors han de promoure iniciatives educatives i materials informatius per facilitar una comprensió crítica i responsable de l’ús de la IA per part de la ciutadania.
- Informe anual de compliment.- Els signants hauran de publicar un informe anual sobre com apliquen els principis del codi, com a exercici de transparència i compromís públic.
Una fase de prova amb projecció europea (i catalana?)
Aquest Codi GPAI no és un simple marc teòric. S’obre ara una fase pilot de sis mesos, durant la qual les organitzacions que el subscriguin podran posar-lo a prova i demostrar com l’apliquen a la pràctica. A partir dels resultats d’aquesta fase, es podran introduir millores abans de passar a una implementació formal.
Tot i que la iniciativa està pensada com a eina europea, podria ser especialment útil per a projectes catalans que desenvolupin o utilitzin IA d’ús general, ja sigui des del sector públic (com ara universitats, consorcis sanitaris o projectes culturals) com des d’empreses emergents i innovadores del sector tecnològic.
La participació activa en aquest Codi pot posicionar Catalunya com a referent en ètica i governança de la IA, aportant valors propis al debat europeu i creant sinergies amb altres regions amb ecosistemes digitals avançats.
Conclusions.- L’esborrany final del Codi GPAI marca un punt d’inflexió en la manera com Europa entén i regula la intel·ligència artificial més potent. Lluny de receptes rígides, es tracta d’un instrument flexible i viu, pensat per guanyar temps i confiança abans de l’entrada en vigor de les obligacions legals del AI Act.
Per a la societat civil, els mitjans, les institucions i els desenvolupadors, és una oportunitat per fer les coses bé des del principi. I per a territoris com Catalunya, una invitació a sumar-se —amb veu pròpia— a la construcció d’una intel·ligència artificial que sigui al servei de les persones.- El Bloc de l’Estanis/Comunicació 360º (Il·lustració: ec.europa.eu)
