Human versus AI – episode 68 – Data for Good est biaisé !

📚 Lecture du jour : Le livre blanc de Data For Good sur l’IA générative. Un document riche qui plonge en profondeur dans les méandres des biais algorithmiques et leur impact sur notre société. Par exemple, il éclaire sur la notion de “variables proxy”, ces variables qui, en coulisse, peuvent refléter des biais (comme le code postal pouvant être un indicateur de l’origine ethnique). 🌐

Cependant, j’ai noté un certain… biais dans l’approche :
1️⃣ Le document ne semble pas explorer des cas où l’IA générative pourrait en réalité diminuer les biais du monde réel. Imaginez un recruteur assisté par une IA qui se concentrerait davantage sur les compétences plutôt que sur des critères subjectifs. 🤖➡️🌍
2️⃣ Il manque également une analyse des situations où les biais n’ont pas vraiment d’importance. Par exemple, si une IA rédige un e-mail de réponse à un client, le biais est-il toujours pertinent? 📩
#IAgénérative#BiaisAlgorithmiques#DataForGood#TechnologieEthique

🤔 Qu’en pensez-vous ? Avez-vous d’autres exemples où l’IA pourrait être une solution pour réduire les biais ? Ou des situations où les biais ne sont pas pertinents ? Partagez vos réflexions en commentaires ! 👇

🦾🦾🦾 Le texte ci-dessus est généré par #ChatGPT
💪💪💪 Notes sur la méthode :
1️⃣ Interrogation du document avec le plugin AskYourPDF
2️⃣ La thèse de Data for Good est en substance que, contrairement à ce que l’on pensait il y a 10 ans, les algorithmes ont tendance à perpétuer et renforcer les inégalités existantes. La recherche d’élément à décharge à été compliqué. Il a fallu s’y reprendre à plusieurs fois pour que ChatGPT admette que, non, le document ne produisait pas d’éléments sur les points mentionnés ci-dessus.

Alors quel intérêt me direz-vous ? Et bien justement de pouvoir préciser sa pensée au vu des éléments fournis. Et également extraire en passant des éléments intéressants comme cette notion de proxy.

Votre avis ?

🤖🆚🧑 Human versus #AI – episode 68 – Data for Good est biaisé !

📚 Lecture du jour : Le livre blanc de Data For Good sur l’IA générative. Un document riche qui plonge en profondeur dans les méandres des biais algorithmiques et leur impact sur notre société. Par exemple, il éclaire sur la notion de “variables proxy”, ces variables qui, en coulisse, peuvent refléter des biais (comme le code postal pouvant être un indicateur de l’origine ethnique). 🌐

Cependant, j’ai noté un certain… biais dans l’approche :
1️⃣ Le document ne semble pas explorer des cas où l’IA générative pourrait en réalité diminuer les biais du monde réel. Imaginez un recruteur assisté par une IA qui se concentrerait davantage sur les compétences plutôt que sur des critères subjectifs. 🤖➡️🌍
2️⃣ Il manque également une analyse des situations où les biais n’ont pas vraiment d’importance. Par exemple, si une IA rédige un e-mail de réponse à un client, le biais est-il toujours pertinent? 📩
#IAgénérative#BiaisAlgorithmiques#DataForGood#TechnologieEthique

🤔 Qu’en pensez-vous ? Avez-vous d’autres exemples où l’IA pourrait être une solution pour réduire les biais ? Ou des situations où les biais ne sont pas pertinents ? Partagez vos réflexions en commentaires ! 👇

🦾🦾🦾 Le texte ci-dessus est généré par #ChatGPT
💪💪💪 Notes sur la méthode :
1️⃣ Interrogation du document avec le plugin AskYourPDF
2️⃣ La thèse de Data for Good est en substance que, contrairement à ce que l’on pensait il y a 10 ans, les algorithmes ont tendance à perpétuer et renforcer les inégalités existantes. La recherche d’élément à décharge à été compliqué. Il a fallu s’y reprendre à plusieurs fois pour que ChatGPT admette que, non, le document ne produisait pas d’éléments sur les points mentionnés ci-dessus.

Alors quel intérêt me direz-vous ? Et bien justement de pouvoir préciser sa pensée au vu des éléments fournis. Et également extraire en passant des éléments intéressants comme cette notion de proxy.

Votre avis ?

Leave a Reply