Marc Alier (Ludo) - Home Page

Pàgina personal i Calaix Desastre

El Biaix sociopolític en models de machine learning

Posted at — Feb 1, 2023

Els biaixos en els pages/wiki/ia-cat/Model de Machine Learning són errors sistemàtics que es produeixen quan el model no pot capturar completament les relacions subtils entre les dades i les etiquetes. L’origen d’aquests biaixos pot ser diverses causes, com ara:

  1. Selecció de dades: Si el conjunt de dades utilitzat per entrenar el model no és representatiu de la població que es vol modelar, el model pot aprendre biaixos a partir de les dades desequilibrades o incompletes.

  2. Falta de diversitat: Si les dades són poc diverses, el model pot aprendre patrons que no són generalitzables a altres contextos.

  3. Model de selecció: Si es selecciona un model que no és prou potent per capturar les relacions entre les dades i les etiquetes, això pot portar a un biaix.

  4. Regulació insuficient: Si el model no està prou regularitzat, pot aprendre patrons que són específics del conjunt de dades d’entrenament i que no es generalitzen bé.

  5. Interacció humana: Si els humans que supervisen el model tenen biaixos propis, això pot influir en les dades d’entrenament i, per tant, en el model.

És important reconèixer que els biaixos en els models de machine learning no són intencionats i són un repte important per als investigadors i els practicants de machine learning. Però, amb la comprensió i el disseny adequat dels models, és possible minimitzar els biaixos i desenvolupar models més justos i precisos.

Biaix polític a ChatGPT, un exemple

A aquest blog podeu trobar un exemple d’anàlisi de l’orientació política de les respostes de ChatGPT. Es interessant observar com els proveidors de ChatGPT (OpenAi) van ajustant ChatGPT per mitigar els biaixos.