Déroulé :
Activité 1 : Connaître les règles du Grand oral
Activité 2 – Explorer les pistes d’une idée de question
Activité 4 – Argumenter : des algorithmes dans la sphère de la sécurité
Activité 5 – Argumenter : des algorithmes dans la sphère du recrutement
Quand la mathématique éclaire la société : L'entretien complet avec Cédric Villani
Présentation vidéo :
Enseignant ? Connectez-vous ou créez votre compte personnel pour accéder à l'ensemble des corrigés.
Modalités :
- Travail personnel en classe ou à la maison.
- Niveau Terminale
- Durée indicative : indéterminée
Références aux programmes des enseignements de spécialité :
SES :
- Terminale_Questionnement 11 – « Quelles inégalités sont compatibles avec les différentes conceptions de la justice sociale ? » - Les mesures de lutte contre les discriminations par les pouvoirs publics
- Première_Questionnement 8 – « Quels sont les processus sociaux qui contribuent à la déviance ? » - Notions de contrôle social et délinquance
Mathématiques :
- Terminale_Questionnement 4 – Algorithme et programmation – « De nombreux textes témoignent d’une préoccupation algorithmique au long de l’Histoire. Lorsqu’un texte historique a une visée algorithmique, transformer les méthodes qu’il présente en un algorithme, voire en un programme, ou inversement, est l’occasion de travailler des changements de registre qui donnent du sens au formalisme mathématique » (extrait du programme officiel du 6 février 2019).
Compétences transversales travaillées :
SES :
- Mobilisation des connaissances
- Collecte et traitement de l’information
- Analyse et mobilisation de documents de natures diverses
- Construction d’une argumentation / d’un raisonnement rigoureux à l’écrit et à l’oral
Mathématiques :
- Communiquer un résultat par oral ou par écrit, expliquer une démarche.
Activité 1 – Connaître les règles du Grand Oral
Après avoir lu (ou relu), les indications sur le site Eduscol, en particulier la FAQ, vous répondrez aux questions suivantes.
Modalité : Travail personnel de l’élève en classe ou à la maison. Plusieurs réponses sont possibles parfois.
1. Pour le grand oral, je prépare mes deux questions :
a. Seul
b. En groupe
2. Si mes enseignements de spécialité (EDS) sont SES et mathématiques, je peux proposer
a. Une question de SES et une question de mathématiques
b. Deux questions de SES
c. Une question de SES et une question croisant SES et mathématiques
d. Deux questions croisant SES et mathématiques
3. L’intitulé de mes questions peut être par exemple :
a. Comment le genre est-il à l’origine d’inégalités sociales ?
b. Comment sortir des discriminations à l’encontre des femmes au moment du recrutement ?
c. Les associations pour le droit des femmes, comme le planning familial, proposent-elles de meilleures conditions de travail aux femmes ?
d. En tant que femme, comment pourrais-je appliquer des principes égalitaires lors d’un recrutement ?
4. Pour élaborer les questions que je traiterai, je dois :
a. Partir de mon projet d’orientation et faire le lien avec des éléments de programme de l’année de première et terminale.
b. Examiner prioritairement les thématiques qui m’ont intéressé(e) en première et terminale et montrer en quoi elles éclairent mon projet d’orientation.
c. Choisir des sujets qui n’ont pas nécessairement un intérêt pour moi mais sont en lien avec mon projet d’orientation ou me semblent plus faciles.
5. Lors de l’épreuve, je dois être capable d’exposer les deux questions préparées
a. Vrai
b. Faux
6. Lors de l’épreuve, je traiterai les deux questions préparées
a. Vrai
b. Faux
7. Lors du grand oral, je dispose d’un support préparé pendant les 20 minutes qui me sont imparties avant l’examen
a. Vrai
b. Faux
8. Lors de l’épreuve, je disposerai d’un tableau
a. Vrai
b. Faux
9. Si je propose une question croisant SES et mathématiques, j’aurais nécessairement un professeur de mathématiques dans le jury
a. Vrai
b. Faux
10. Lors des 10 minutes d’échanges avec le jury sur la question traitée, il peut m’être demandé
a. Toute connaissance qui a été traité au cours de l’année dans les deux EDS
b. Des précisions quant aux notions, mécanismes ou illustrations utilisées précédemment pendant l’exposé et en lien avec les EDS.
11. Si mon projet d’orientation est en décalage avec la question ou les EDS choisis, je serai
a. Pénalisé
b. Amené à justifier des raisons pour lesquelles j’ai choisi une autre voie.
Activité 2 – Explorer les pistes d’une idée de question
Modalité : Travail personnel de l’élève en autonomie
Lire : Algorithmes : prévenir les risques de discriminations (publié par le site Vie publique le 18 juin 2020)
1. Étude de la source :
Le document est-il fiable ?
2. Analyse d’un document :
Quelle problématique est mise en exergue au début de ce document ?
3. Compléter l’information :
Sur quels domaines ouvre ce document ?
4. Établir le lien avec les spécialités :
Que nous apprennent les programmes de SES et de mathématiques pour traiter la question émergente ?
5. Se questionner :
Compte tenu de votre choix d’orientation, vos caractéristiques, vos appétences, quelles questions peuvent émerger à la lecture de cette ressource ?
Entretien vidéo - 3 questions à … Guillaume Herszkowicz
Entretien - 3 questions à … Guillaume Herszkowicz
1) En cours de spé-maths, que développe le professeur concernant les algorithmes, en des termes simples ?
2) En tant que professeur de maths, qu’attendriez-vous globalement d’un élève dont le sujet porte sur algorithmes et discriminations au grand oral ?
3) Selon vous, quelles sont les autres entrées du programme qui peuvent être associées à des enjeux économiques, politiques ou sociaux ?
Exercice - Réaliser cet exercice sur learningapps.
Activité 3 – Argumenter à partir d’une première question provisoire : les algorithmes peuvent-ils générer de la discrimination ?
Lors des cinq minutes sont imparties pour présenter le sujet, il peut être recommandé de :
- Contextualiser la question
- Préciser la question en définissant précisément les termes utilisés
- Argumenter en associant une affirmation, une justification ou une explication et un exemple précis.
-->Tout ceci nécessite une phase de recherche méthodique et un effort d’approfondissement.
Retour vers le lien Algorithmes : prévenir les risques de discriminations publié par Vie publique le 18 juin 2020.
Analyse d’un argument : rechercher « la forêt » cachée derrière l’arbre …
Quels arguments sont présentés dans ce document pour asseoir le propos selon lequel les algorithmes peuvent créer des discriminations ?
a. Décomposition méthodologique :
b. Application : présenter un argument fondé (Exemple d'exercice)
Citation :
« Certains critères discriminatoires peuvent être pris en compte par l’algorithme dans un contexte particulier, comme l’âge pour le prêt bancaire, l’état de santé pour l’assurance ou encore le lieu de résidence pour moduler les primes. »
Reformulation :
Dans certains cas, les algorithmes insèrent dans le codage des critères discriminants connus et assumés.
Recherche :
Les banques imposent délibérément des taux d'intérêt différents en fonction de l'âge du créancier par exemple : est-ce légal ? Est-ce discriminatoire ?
Points de vigilance : privilégier les sites officiels et non pas commerciaux (banques ou assurances notamment).
Explicitation :
SES : La discrimination peut être établie en raison du recours à un critère d’âge injustifié au regard du bien demandé.
Maths : Les algorithmes utilisés par les banques intègrent le critère de l'âge pour restreindre l'octroi d'un crédit en fonction de la somme demandée, de sa durée de remboursement, de l'état de santé du créancier.
à Les banques appliquent en effet des conditions différentes aux emprunteurs en fonction de leur âge : elles peuvent refuser un crédit à une personne plus âgée en raison d’un risque de mortalité plus élevé à mesure que l’âge augmente. Selon la question posée par un député à la secrétaire d’État chargée des aînés en 2010, cela NE peut constituer une discrimination en droit si la décision est justifiée par le montant du prêt sollicité et les risques pris par l’organisme de crédit.
Nuance : Toutefois, une décision du Défenseur des Droits datant du 29 mars 2018 recommande à un établissement de crédit de réparer le préjudice subi auprès d’un client suite à un refus d’octroyer un crédit à dix ans en raison de son âge (66 ans).
Référence : Décision du Défenseur des droits du 29 mars 2018.
Conclusion :
Les algorithmes utilisés par les banques et assurances sont-ils discriminatoires ?
Non, ils discriminent, séparent deux clients en tenant compte non seulement des revenus et capacités de remboursement mais aussi de l’état de santé et de l’âge du client. Mais ils ne peuvent être considérés comme discriminatoires tant qu’ils demeurent valables au regard de l’analyse du risque financier pour une entreprise. Les conditions de crédit peuvent être moins avantageuses si on est âgé de 85 ans, si on a un emploi précaire, etc.
Ces pratiques de sélection sont-elles contraires à la loi ?
La réponse est plus nuancée.
Non, s’agissant d’un secteur économique soumis à l’aléa moral, il induit le recours à des moyens de réduction de l’asymétrie d’information en segmentant la clientèle.
Toutefois, l’accès à un service, le crédit comme tout autre activité économique, ne peut être soumis à un critère d’âge sans justification. Autrement dit : on ne peut systématiquement refuser un crédit à une personne au-delà ou en-deçà d’un certain âge. Des abus et décisions arbitraires peuvent être indiqués et corrigés, notamment par le Défenseur des droits.
Exercice : A vous de jouer avec cette citation !
Citation proposée : « Le plus souvent, les effets discriminatoires des algorithmes reposent sur des critères neutres en apparence et sont donc beaucoup moins visibles. C’est notamment le cas de la plateforme pour s'inscrire dans l'enseignement supérieur : Parcoursup. (…) la prise en compte du critère du lycée d’origine par les algorithmes des universités revenait à discriminer les jeunes issus de l’immigration ».
Activité 4 – Argumenter : des algorithmes dans la sphère de la sécurité
Supposons que l’élève, intéressé par les enjeux de sécurité intérieure, soucieux des libertés publiques ou désireux d’étudier le droit, choisisse de traiter de l’usage des algorithmes dans la police.
S’ouvrent alors plusieurs pistes de recherche :
- Les algorithmes permettent-ils de prévenir la délinquance ?
- Les smart-cities, fondées sur des algorithmes, sont-elles discriminatoires ?
- La sécurité publique est-elle devenue un marché, librement investi par les sociétés de « Big Data » ?
Nous imaginons la problématique suivante :
La pénétration des algorithmes dans la police : après les États-Unis, quels usages en France dans la lutte contre la délinquance ?
Document vidéo 1 - Extrait de Minority Report, film de Steven Spielberg, 2002.
Document 2 : « Quand prédire, c’est gérer. La police prédictive aux États-Unis »
Bilel Benbouzid analyse les origines de la police prédictive dans le système du Compstat (la contraction de la formule « Computerized Statistics »), l’innovation managériale mise en œuvre à New York dans les années 1990 visant à améliorer l’efficacité d’une police qui se doit d’être plus proactive que réactive.
L’histoire de la catégorie de predictive policing est présentée comme la mise en algorithme successive de deux grands principes du Compstat : connaître la délinquance et évaluer la performance. Au début des années 2000, les machines apparaissent d’abord comme des systèmes d’information géographique en ligne (web mapping) permettant aux agents de terrain d’accéder n’importe où et n’importe quand à l’information statistique en vue d’une adaptation des stratégies policières aux évolutions de tel ou tel type de crime. C’est à partir de 2010 que le vocabulaire de la prédiction fait son apparition. Les machines deviennent alors un moyen de rationaliser le travail policier et le support de l’évaluation de la performance des patrouilles. Analysé à partir des cas du développement des plateformes Hunchlab et Predpol1, la police prédictive est le récit d’une bifurcation : d’un logiciel statistique construit au sein du système d’information de la police cherchant à aider les policiers à explorer des hypothèses et des intuitions, on passe à un style de machine prédictive qui pilote l’activité des agents et distribue de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. La prédiction n’apparaît plus comme une technologie de projection de l’avenir, mais comme le vecteur d’une multitude de métriques de gestion pour doser le temps de patrouille et réguler la quantité de contrôle policier dans la population. Hunchlab et Predpol sont des machines à produire des normes quantitatives permettant de superviser les temps de patrouille, distribuer de la sécurité sur le territoire et corriger les comportements de la police pour protéger la population des contrôles abusifs que garantit le Quatrième amendement2. Prédire pour gouverner, c’est intégrer des règles d’action dans le paramétrage des machines, plaçant dans le calcul la clé de l’harmonie sociale.
Source : Bilel BENBOUZID, « Quand prédire, c’est gérer. La police prédictive aux États-Unis », Réseaux, La Découverte, n° 211, 2018.
(1) Predpol est une start-up américaine, la plus célèbre en matière de police prédictive, qui commercialise une plateforme d’analyse prédictive, téléchargeable sur une simple application, prenant la forme d’un tableau de bord diffusant en temps réel les risques d’occurrence des crimes avec une précision de l’ordre de 200 mètres.
(2) Le IVe amendement à la Constitution des États-Unis d’Amérique protège contre des perquisitions et saisies non motivées et requiert un mandat (et une sérieuse justification) pour toute perquisition.
Document 3 : « Des crimes et des séismes. La police prédictive entre science, technique et divination »
Aux États-Unis, la police prédictive s’inscrit dans un projet ancien de réforme de la police par la recherche qui vise à créer une police de proaction, plus préventive qu’urgentiste, qui intervient de son propre chef, sans être mobilisée par l’appel des citoyens. (…).
Si la start-up californienne Predpol apparaît comme une référence dans le domaine de la police prédictive, c’est grâce à son principal slogan publicitaire : « More Than Hotspot Tool ». Predpol ferait mieux que les cartes du crime classiques grâce à une méthode prédictive utilisée dans le domaine de la prédiction des tremblements de terre. Une similarité observée par les chercheurs de Los Angeles entre la dynamique de propagation des crimes et celle des séismes laisse alors espérer que le crime serait, enfin, fongible dans les mathématiques. (…) Les chercheurs de Predpol débutent leur recherche avec une hypothèse classique en matière d’analyse prédictive du crime : le crime ne se produit pas par hasard, il se concentre dans l’espace et se diffuse de proche en proche. La structure répétitive des événements eux-mêmes suffit à modéliser le phénomène (sans avoir recours à des variables externes) : le meilleur prédicteur d’un crime à venir est un crime passé. (…) La formule ci-dessous est la représentation mathématique de ce processus et, partant, de l’algorithme de prédiction utilisé par Marsan1 et Predpol. Elle calcule une probabilité qui est, pour ainsi dire, une idéalisation de la moyenne des crimes ou des séismes sur une surface :
Dans cette équation, la probabilité d’occurrence d’un événement, à un instant donné du processus, est une contribution à un calcul de l’intensité du risque par unité de surface et par unité de temps. Dans le langage des statisticiens, on dit que cette équation « décrit un processus inhomogène de Poisson d’intensité λ (x, y, t) ». (…)
Dans les politiques de prédiction du crime, la plateforme Predpol fonctionne comme un outil de gestion de l’action policière. Les études de Predpol ont montré qu’en passant seulement 5 % de leur temps disponible dans les zones identifiées par l’algorithme, les patrouilles de police sont deux fois plus efficaces que lorsqu’elles patrouillent dans les points chauds classiquement identifiés par les analystes. L’exactitude de ce que prétend Predpol n’a pas beaucoup d’importance. Ce qui compte, c’est de pouvoir optimiser et surtout contrôler avec précision ce temps de présence tactique dans l’espace à risques. (…) Predpol apparaît comme un bon outil pour s’assurer que les policiers font bien leur travail préventif, souvent par leur simple présence dissuasive, distribuée de manière aléatoire, mais pendant une durée optimisée, dans les zones où le risque est estimé le plus haut. L’enjeu de la prédiction est de gérer l’offre publique de vigilance quotidienne, en minimisant le changement dans l’organisation policière. (…) Predpol donne le sentiment à la police de travailler dans un monde plus prévisible, mais rares sont les situations où les policiers peuvent observer en direct le passage à l’acte des criminels, même lorsqu’ils se font discrets en civil sur les zones indiquées avec une précision de 200 mètres. Dès lors, comment Predpol peut-il prétendre « prédire » le crime ? (…) Le problème n’est pas de croire ou de ne pas croire dans la prédiction, mais de faire quelque chose plutôt que rien, en suivant les recommandations de la machine. (…) il s’agit d’évaluer les conséquences sur le très court terme, sans jamais tester la significativité statistique des réductions mesurées au regard des tendances générales du crime sur le temps long.
Source : Bilel Benbouzid, « Des crimes et des séismes. La police prédictive entre science, technique et divination », Réseaux, La Découverte, n° 206, 2017.
(1) David Marsan est un sismologue français, professeur de science de la terre à l’Université de Savoie, qui a mis au point un algorithme, source d’inspiration des mathématiciens de la start-up américaine Predpol.
Pour compléter ce dossier documentaire …
Entretien 1 : Algorithmes et sécurité « 3 questions à » Dominique Lecocq, capitaine en second du groupement de gendarmerie de Béthune
1. Comment sont créés les algorithmes utilisés sur le terrain par les gendarmes ?
2. Quels sont les principaux usages (ou objectifs) des outils algorithmiques dans le cadre d’un groupement de gendarmerie ?
3. Dans quelle mesure la pénétration des algorithmes dans le travail d’un gendarme l'a-t-elle réorganisé ?
Exercices :
Exercice 1 - « Il est faux de considérer que … mais » :
1. Il est faux de considérer que la police prédictive cherche à savoir précisément où va se dérouler un crime ou un délit pour l’empêcher.
2. Il est faux de considérer que la technique n’a qu’un effet sur la délinquance.
3. Il n’est pas vrai de considérer que l’algorithme utilisé par la police américaine est construit à partir de paramètres comme le milieu socio-économique, l’origine ethnique des populations, la délinquance passée.
4. Il est faux de considérer que l’algorithme produit des discriminations entre les populations.
5. Il n’est pas vrai de considérer que l’algorithme utilisé par la police américaine peut permettre de mesurer la baisse de la délinquance.
Exercice 2 – Le jeu des différences Entre police américaine et gendarmerie française, quels sont les points communs et les différences ?
Activité 5 – Argumenter : des algorithmes dans la sphère du recrutement
Imaginons que l’élève, intéressé cette fois par les compétences managériales, le service des ressources humaines dans une entreprise ou encore désireux de poursuivre ses études en sociologie ou en droit, choisisse le questionnement : les algorithmes sont-ils socialement neutres ? Il pourra restreindre son sujet au domaine du recrutement.
La problématique peut devenir alors :
Recruter grâce aux algorithmes : quels risques, quelles opportunités ?
Document 1 : L’Intelligence artificielle, avec ou contre nous ?
Il est difficile de ne pas reconnaître que les technologies d’IA permettent d’obtenir des performances sans commune mesure avec celles réalisées à l’aide de leurs homologues informatiques classiques. Néanmoins, il est également indéniable que la façon dont elles résolvent les problèmes est bien plus difficile à comprendre que la simple application d’algorithmes conventionnels. (…)
Après avoir réussi à faire entrer dans un ordinateur ce qu’il savait calculer grâce à des équations, puis la connaissance qu’il pouvait formaliser par des enchaînements logiques, les chercheurs en informatique se sont employés à lui confier des tâches qu’ils savaient accomplir mais pour lesquelles ils étaient incapables d’expliquer comment ils les menaient à bien. C’est le principe de l’apprentissage machine(1) : cette fois il ne s’agit plus de montrer à l’ordinateur les procédures à suivre ou les règles à respecter mais seulement des exemples de ce qu’il doit faire sur quelques cas et lui laisser généraliser à d’autres cas que ceux sur lesquels il a été formé.
L’IA est capable d’aller d’un point de départ (le problème posé) jusqu’au point d’arrivée (la réponse au problème posé) sans qu’on lui ait indiqué au départ les étapes à parcourir pour les relier. (…) Le principe de la mécanique interne qui permet au programme de trouver la bonne solution est connu, mais sa mise en œuvre est parfois si compliquée qu’elle en devient incompréhensible pour l’être humain. Il est alors difficile de faire confiance au système. (…) La capacité à expliquer son raisonnement n’est pas inhérente à l’IA. Pendant longtemps, son unique objectif a été de trouver une solution ; peu importait la façon dont elle y parvenait. Tant qu’il s’agissait de battre un champion du monde aux échecs (…), tous les coups étaient permis. Mais quand l’IA commence à prendre des décisions plus critiques (faut-il opérer ce malade ? cet accusé est-il coupable ? cet élève doit-il aller en classe préparatoire ou en IUT ?), les personnes concernées et celles qui vont valider les résultats issus de la machine voudraient être sûres d’en avoir compris les raisons. (…) Le raisonnement des systèmes à base d’apprentissage, et notamment des réseaux de neurones, et, quasiment, par nature, inexplicable. C’est bien leur raisonnement, et non leur fonctionnement, qui nous est inaccessible. (…) la raison de la prise de décision est difficilement explicable : savons-nous pourquoi nous estimons qu’une photo est celle d’un homme ou d’une femme, sans les repères des bijoux, du maquillage et autres coupes de cheveux ? Si nous le savions, nous aurions recours aux règles. Comment donc s’attendre à ce qu’un système « mécanique » soit capable d’expliquer ce qu’un être humain n’est pas capable de faire ? (…)
Les réseaux de neurones privilégient la corrélation à la causalité. Ils sont dans la position de l’Indien météorologue d’une histoire drôle assez connue. Un cow-boy coupe du bois dans la forêt en prévision de l’hiver quand passe un Indien. Le cow-boy lui demande si l’hiver va être froid. L’Indien répond par l’affirmative. Le cow-boy coupe donc davantage de bois, et quand il revoit l’Indien, il lui repose la même question, et son interlocuteur lui donne la même réponse. Après deux ou trois échanges, le cow-boy, épuisé, demande à l’Indien comment il sait que l’hiver va être aussi rigoureux. L’Indien lui répond que quand le cow-boy coupe beaucoup de bois, c’est que l’hiver va être froid. Il s’est appuyé sur une corrélation issue de son expérience, pas sur une causalité issue de l’interprétation de signes météorologiques.
[Une autre fragilité des systèmes à base d’apprentissage] se trouve dans les biais d’apprentissage, (…) révélateurs de biais de notre société et de nos façons de vivre. Jusqu’à récemment, les systèmes de reconnaissance de personnes ne fonctionnaient pas avec les personnes de couleur car les bases d’apprentissage contenaient surtout des photos d’Occidentaux à la peau claire. La reconnaissance vocale ne marchait pas du tout avec des personnes âgées, alors que ce sont sans doute celles qui en auraient le plus besoin, parce que la très grande majorité des échantillons collectés par les différents systèmes commandés à la voix sont réalisés avec deux jeunes gens amateurs de technologie et rarement avec des personnes âgées. Ces points ont pu ou seront corrigés, mais d’autres poseront problème longtemps encore. C’est par exemple le cas des logiciels de traitement de CV. En s’appuyant sur le CV des collaborateurs qui ont donné satisfaction par le passé, le système d’IA est capable d’effectuer une première sélection parmi les milliers de CV reçus dans une grande entreprise. Le système reproduit les bonnes raisons ayant abouti à ce choix mais aussi certaines mauvaises : si par le passé, plus d’hommes que de femmes ont été recrutés, le système veillera à reproduire cette proportion. La base d’apprentissage est alors biaisée. L’IA pourra être accusée de pratiquer une discrimination, mais elle ne fera que reproduire les comportements passés. L’IA n’est pas équipée pour la disruption2. (…) Supprimer toute trace du sexe dans le CV d’une personne s’avère beaucoup plus compliqué qu’on ne le croit. Le même type de problème se pose avec les origines ; supprimer la photo, le prénom, le nom ne suffit pas, il reste le lieu d’habitation, les établissements scolaires fréquentés, qui sont parfois des marqueurs aussi visibles qu’un nom à consonance étrangère.
La dernière grande faiblesse des systèmes à base d’apprentissage et la plus fondamentale : ceux-ci sont basés sur de l’apprentissage. Ils ne peuvent donc traiter que des situations comparables à ce qu’ils ont déjà vu.
Source : Rodolphe Gelin, Olivier Guilhem, L’Intelligence artificielle, avec ou contre nous ?, La documentation française, 2020.
(1) Aussi dénommé « machine learning ».
(2) Synonyme : rupture.
Document 2 : Le développement de l'intelligence artificielle (Eclairage avec Vie publique)
Source : Le développement de l'intelligence artificielle : risque ou opportunité ? (Vie publique, décembre 2020)
Document 3 : IA et recrutement (L'Obs)
Source : Mahaut Landaz, « Recalé d’un job après un entretien vidéo ? Vous n’avez peut-être pas plu à l’intelligence artificielle », L’Obs, 20 octobre 2019
Pour compléter ce dossier documentaire …
Entretien 2 : 3 questions à Rodolphe Gelin et Olivier Guilhem, auteurs de L’Intelligence artificielle, avec ou contre nous ?
Entretien 3 : 3 questions à Audrey Richard, présidente de l’association nationale des directeurs des ressources humaines (ANDRH) et DRH du groupe Up.
1) Comment fonctionnent les algorithmes utilisés pour le recrutement, réputés moins subjectifs et discriminants qu’un être humain ?
2) En quoi l’usage des algorithmes a-t-il transformé la fonction RH d’une grande entreprise ?
3) Quels inconvénients voyez-vous à l’usage des algorithmes dans la procédure de recrutement d’une entreprise ?
Exercice – Le tableau des contraires :
Comment faire ressortir les principales informations recueillies pour répondre à la problématique ? Il est possible d’utiliser le tableau de synthèse suivant qui synthétise les risques et opportunités liés à l’usage des algorithmes dans la procédure de recrutement.
Complétez chacune des cases :
Découvrir les autres Grand angle :
A propos
Vie publique :
Vie-publique.fr est un site gratuit d’information qui donne des clés pour comprendre les politiques publiques et les grands débats qui animent la société. Le site est réalisé par la DILA (Direction de l’information légale et administrative), rattachée aux services du Premier ministre.
Vie-publique.fr a pour ambition de s’adresser aux citoyens dans leur diversité pour permettre de décrypter l’information, de démêler le vrai du faux, de se faire une opinion et de favoriser l’engagement dans le débat public. Pour ce faire, Vie-publique.fr propose gratuitement pour tous les sujets traités, une information claire, riche et fiable, représentative des différentes opinions publiques. Par cette contribution à la compréhension du monde contemporain, les contenus publiés sur vie-publique.fr participent au débat démocratique et à la formation du citoyen.
www.vie-publique.fr
Melchior :
En partenariat avec le ministère de l’Éducation nationale, Melchior est le site de ressources pédagogiques en libre accès conçues par des enseignants pour les enseignants et les élèves.
• Tous les programmes de sciences économiques et sociales de la seconde aux classes préparatoires accompagnés de supports de cours (exercices, vidéos, podcasts, infographies, notes de lecture, quiz…).
• Des ressources innovantes pour illustrer chaque thématique (études de cas, mises en activité, focus d’entreprises…), des dossiers autour de thématiques croisées (entreprise, climat, nouvelles technologies, mondialisation…) et des décryptages de l’actualité.
• Des ressources originales créées avec nos partenaires (Brief.eco, BSI Economics, France Stratégie, Insee, PSE – Paris School of Economics, Vie publique, Xerfi Canal)
www.melchior.fr