Centre de Documentation du Campus Mons
Le centre de documentation vous accueille du lundi au jeudi de 8 h à 18 h et le vendredi de 8 h à 13 h30.
Le centre de documentation ouvrira exceptionnellement à 8 h 30 ce mardi 7 janvier, l'horaire ordinaire reprendra dès mercredi 8 janvier.
Bienvenue sur le catalogue du centre de documentation du Campus Mons
HELHa - Artistique - Économique - Pédagogique - Social - Technique
[article]
Titre : |
La lutte contre les discriminations en Europe à l'ère de l'intelligence artificielle et du big data |
Type de document : |
texte imprimé |
Auteurs : |
Liane Chancerelle |
Année de publication : |
2019 |
Article en page(s) : |
p. 25-37 |
Langues : |
Français (fre) |
Catégories : |
Discrimination -- Lutte contre Données massives Intelligence artificielle -- Aspect social Protection de l'information (informatique) -- Droit
|
Résumé : |
"Contrairement à certaines idées reçues, ce n'est pas parce que l'intelligence artificielle n'est pas humaine qu'elle est objective et impartiale. Nombreux sont les exemples d'algorithmes qui intègrent des biais et des stéréotypes racistes, sexistes, ou antisémites. Or, lorsque les algorithmes intègrent des jugements basés sur des idées préconçues, ils peuvent produire ou reproduire des discriminations directes ou indirectes. Il importe donc de s'interroger sur ces processus ainsi que sur les réponses que le RGPD peut apporter à la lutte contre les discriminations en Europe, en termes de prévention et de réparation." |
in Journal du droit des jeunes > 381 (Janvier 2019) . - p. 25-37
[article] La lutte contre les discriminations en Europe à l'ère de l'intelligence artificielle et du big data [texte imprimé] / Liane Chancerelle . - 2019 . - p. 25-37. Langues : Français ( fre) in Journal du droit des jeunes > 381 (Janvier 2019) . - p. 25-37
Catégories : |
Discrimination -- Lutte contre Données massives Intelligence artificielle -- Aspect social Protection de l'information (informatique) -- Droit
|
Résumé : |
"Contrairement à certaines idées reçues, ce n'est pas parce que l'intelligence artificielle n'est pas humaine qu'elle est objective et impartiale. Nombreux sont les exemples d'algorithmes qui intègrent des biais et des stéréotypes racistes, sexistes, ou antisémites. Or, lorsque les algorithmes intègrent des jugements basés sur des idées préconçues, ils peuvent produire ou reproduire des discriminations directes ou indirectes. Il importe donc de s'interroger sur ces processus ainsi que sur les réponses que le RGPD peut apporter à la lutte contre les discriminations en Europe, en termes de prévention et de réparation." |
|
Exemplaires