Warning: Some posts on this platform may contain adult material intended for mature audiences only. Viewer discretion is advised. By clicking ‘Continue’, you confirm that you are 18 years or older and consent to viewing explicit content.
J’explique que les critères utlisés ne me semblent pas déconnants au regard des prestations servies
Il te manque la moitié du raisonnement : Une IA généralise depuis les critères déterminants qu’ont lui donne. Si ces critères sont discriminants (la pauvreté, la couleur de peau ou le pays d’origine, par exemple), le résultat sera discriminant, et se cacher derrière l’IA comme tu le fais c’est irresponsable : Décider d’un contrôle parce que la personne est pauvre et noir, c’est de la discrimination. Une bonne façon de se questionner c’est de se dire que si un humain le ferait sur ces critères, ça ne serait pas acceptable, c’est pas juste que ça tombe toujours sur truc discriminant.
Je t’invite à regarder cette vidéo qui développe le sujet.
Après, si tu établis tes critères en fonction du problème étudié, tu vas forcément te retrouver avec une population cible qui répond aux critères.
Je pense que les services qui traquent les gros richos qui planquent leur blé à l’étranger utilisent aussi des algorithmes critériés en fonction de la population cible.
Je ne donne raison à personne. J’observe que les administrations profilent les populations en foction de leurs objectifs, que les acteurs de la société civile les forcent à porter un regard critique sur les biais de leurs méthodes et, espérons-le, à les modifier en conséquence.
On n’est pas obligé de se balancer les pires comparaisons pour réfléchir et discuter.
tu vas forcément te retrouver avec une population cible qui répond aux critères.
Je répondais à ça particulièrement. Pour moi à ce niveau il n’y a plus de discussion, on peut justifier toutes les discriminations et harcellement policiers avec cette rhéorique. Malheureusement en France on a franchi un cap en banalisant ce discours fondamentalement facho.
Il te manque la moitié du raisonnement : Une IA généralise depuis les critères déterminants qu’ont lui donne. Si ces critères sont discriminants (la pauvreté, la couleur de peau ou le pays d’origine, par exemple), le résultat sera discriminant, et se cacher derrière l’IA comme tu le fais c’est irresponsable : Décider d’un contrôle parce que la personne est pauvre et noir, c’est de la discrimination. Une bonne façon de se questionner c’est de se dire que si un humain le ferait sur ces critères, ça ne serait pas acceptable, c’est pas juste que ça tombe toujours sur truc discriminant.
Je t’invite à regarder cette vidéo qui développe le sujet.
Après, si tu établis tes critères en fonction du problème étudié, tu vas forcément te retrouver avec une population cible qui répond aux critères. Je pense que les services qui traquent les gros richos qui planquent leur blé à l’étranger utilisent aussi des algorithmes critériés en fonction de la population cible.
Donc, Zemmour il avait raison de dire qu’il faut cibler plus les personnes non-blanches parce que statistiquement ce sont elles qui… ?
Je ne donne raison à personne. J’observe que les administrations profilent les populations en foction de leurs objectifs, que les acteurs de la société civile les forcent à porter un regard critique sur les biais de leurs méthodes et, espérons-le, à les modifier en conséquence. On n’est pas obligé de se balancer les pires comparaisons pour réfléchir et discuter.
Je répondais à ça particulièrement. Pour moi à ce niveau il n’y a plus de discussion, on peut justifier toutes les discriminations et harcellement policiers avec cette rhéorique. Malheureusement en France on a franchi un cap en banalisant ce discours fondamentalement facho.