L’article titulat “Evaluating social and ethical risks from generative AI” ha estat escrit per Google DeepMind. En aquest, es discuteix un marc proposat per avaluar els riscos ètics i socials associats amb l’ús de la Intel·ligència Artificial generativa, subratllant la importància del context en l’avaluació de la seguretat dels sistemes d’IA i suggerint una responsabilitat compartida entre diferents actors per garantir un desplegament responsable d’aquesta tecnologia.
L’article discuteix un marc per avaluar els riscos socials i ètics dels sistemes d’IA generativa. Proposa un marc de tres capes que es centra en la capacitat del sistema d’IA, la interacció humana i els impactes sistèmics. L’article destaca la importància del context en l’avaluació dels riscos de l’IA i menciona tres principals mancances en les avaluacions de seguretat actuals: context, avaluacions específiques de risc i multimodalitat. Emfatitza una responsabilitat compartida entre els desenvolupadors d’IA, actors públics i stakeholders més amplis per garantir el desenvolupament i desplegament responsables dels sistemes d’IA generativa1.
L’article defineix el context com les condicions més àmplies sota les quals operen i s’avaluen els sistemes d’IA. Subratlla que entendre el context ajuda a avaluar si el sistema d’IA podria causar danys a llarg termini, com ara desinformació o creences falses entre els usuaris, en funció de com, per qui i amb quina finalitat s’utilitza el sistema d’IA. L’article suggereix que el context és vital per a una avaluació completa de la seguretat del sistema d’IA a través de tres capes: capacitat d’IA, interacció humana en el punt d’ús i impacte sistèmic quan un sistema d’IA es desplega àmpliament1