Marc Alier (Ludo) - Home Page

Pàgina personal i Calaix Desastre

Avaluació ètica de models d'IA

Posted at — Jan 1, 0001

L’article titulat “Evaluating social and ethical risks from generative AI” ha estat escrit per Google DeepMind. En aquest, es discuteix un marc proposat per avaluar els riscos ètics i socials associats amb l’ús de la Intel·ligència Artificial generativa, subratllant la importància del context en l’avaluació de la seguretat dels sistemes d’IA i suggerint una responsabilitat compartida entre diferents actors per garantir un desplegament responsable d’aquesta tecnologia.

diagrama

L’article discuteix un marc per avaluar els riscos socials i ètics dels sistemes d’IA generativa. Proposa un marc de tres capes que es centra en la capacitat del sistema d’IA, la interacció humana i els impactes sistèmics. L’article destaca la importància del context en l’avaluació dels riscos de l’IA i menciona tres principals mancances en les avaluacions de seguretat actuals: context, avaluacions específiques de risc i multimodalitat. Emfatitza una responsabilitat compartida entre els desenvolupadors d’IA, actors públics i stakeholders més amplis per garantir el desenvolupament i desplegament responsables dels sistemes d’IA generativa​1​.

L’article defineix el context com les condicions més àmplies sota les quals operen i s’avaluen els sistemes d’IA. Subratlla que entendre el context ajuda a avaluar si el sistema d’IA podria causar danys a llarg termini, com ara desinformació o creences falses entre els usuaris, en funció de com, per qui i amb quina finalitat s’utilitza el sistema d’IA. L’article suggereix que el context és vital per a una avaluació completa de la seguretat del sistema d’IA a través de tres capes: capacitat d’IA, interacció humana en el punt d’ús i impacte sistèmic quan un sistema d’IA es desplega àmpliament​1