Récemment, des discussions ont eu lieu sur les capacités, les limites et même les dangers de l’intelligence artificielle (IA) sur le lieu de travail. Nous savons que les robots et les ordinateurs ont déjà remplacé les travailleurs dans divers emplois, en particulier dans les tâches de routine telles que la fabrication, l’analyse des données et le service à la clientèle. L’automatisation peut faire beaucoup de ces tâches plus rapidement et efficacement que les humains. Nous avons cependant tendance à penser que les emplois de niveau supérieur, tels que ceux des superviseurs et des dirigeants, sont trop complexes ou nécessitent une «touche humaine» et sont donc moins susceptibles d’être remplacés. Mais peut-être, dans un avenir proche, les dirigeants et les dirigeants pourraient être les prochains à être remplacés par l’IA. Est-ce que cela semble exagéré?
Eh bien, je viens de terminer une série de projets en collaboration avec des responsables, des professionnels et des responsables des ressources humaines, et une plainte commune est formulée à propos des décideurs de haut niveau auxquels ces personnes font rapport. Beaucoup de ces professionnels très compétents se plaignent que leurs patrons ignorent ou refusent de mettre en œuvre les meilleures pratiques.
Par exemple, un ingénieur m’a dit que son patron refusait d’acheter des logiciels de conception de pointe, même si tout le monde dans le département d’ingénierie (peut-être même le patron) savait que cela permettrait d’accroître la productivité et la qualité du travail. l’entreprise a beaucoup d’argent. Pourquoi la résistance? Le patron ne comprenait pas complètement la nouvelle technologie et avait peur de perdre le contrôle. Dans un autre cas, le patron d’un professionnel des ressources humaines a refusé d’utiliser les meilleures pratiques pour évaluer les performances des travailleurs, et ce même dirigeant a souvent ignoré l’utilisation de données facilement disponibles et informatives dans la prise de décision. Dans un autre cas encore, le chef du responsable de la conformité était apparemment menacé (ou peut-être jaloux des compétences du subordonné) et ne permettait pas à l’agent d’améliorer et de rationaliser certains domaines d’activité. Qu’est-ce qui est commun à tous ces exemples? Les dirigeants étaient biaisés et influencés par leurs propres limites et insécurités personnelles. Bref, ils étaient trop humains!
Comment un dirigeant de système robotique ou d’IA peut-il se comporter différemment et mieux?
Le responsable de l’IA ne se sentirait pas inadéquat, intimidé ou menacé. Le responsable de l’IA recevrait simplement les données pertinentes du (des) subordonné (s), l’analyserait et prendrait la meilleure décision possible (et dans ces cas, les décisions correctes étaient évidentes). Le dirigeant de l’IA ne jouerait pas à des jeux politiques et ne répondrait que positivement aux réalisations et aux réalisations d’un subordonné. En bref, le dirigeant de l’AI se comporterait comme un chef efficace s’il devait se comporter avec objectivité, équitablement, en s’appuyant sur des données et sur les meilleures pratiques.
Est-ce que ça va arriver? Les patrons de haut niveau seront-ils les prochains à être remplacés par l’automatisation? Probablement pas à court terme, en partie parce que les décisions de remplacement seront prises par des humains.
Qu’est-ce que tu penses?