TestDebit.fr News OpenAI finance la recherche sur la morale de l'intelligence artificielle

OpenAI finance la recherche sur la morale de l'intelligence artificielle

OpenAI investit un million de dollars dans la recherche à l'Université Duke visant à développer des algorithmes capables de prédire les jugements moraux humains. L'équipe de recherche a déjà créé un système d'IA pour la prise de décision en matière de transplantations. Cependant, les systèmes d'IA actuels fonctionnent uniquement sur une base statistique et manquent d'une véritable compréhension de l'éthique. De plus, différents systèmes d'IA adoptent des positions philosophiques variées en matière de morale.

OpenAI finance la recherche sur la morale de l'intelligence artificielle

OpenAI investit un million de dollars dans la recherche à l'Université Duke, qui vise à créer des algorithmes capables de prédire les jugements moraux des humains. L'équipe dirigée par le professeur d'éthique Walter Sinnott-Armstrong tentera d'enseigner à l'intelligence artificielle à prendre des décisions dans des situations éthiquement complexes en médecine, droit et même commerce.

Intelligence artificielle comme boussole morale pour l'humanité

Les chercheurs de l'Université Duke ont déjà développé un algorithme orienté moralement pour décider des bénéficiaires de greffes de rein. Leur vision se tourne maintenant vers la création d'une sorte de boussole morale qui aiderait les gens dans des décisions éthiques complexes. Mais est-il même possible d'apprendre à une machine à comprendre la morale humaine?

L'histoire nous met en garde. En 2021, l'Institut Allen a développé l'outil Ask Delphi, qui devait fournir des recommandations éthiques. Il a pu évaluer correctement que tricher lors d'un examen est mal, mais il suffisait de reformuler la question pour que le système commence à approuver des comportements franchement immoraux. Pourquoi ? Les systèmes d'IA sont essentiellement des machines statistiques sans véritable compréhension de l'éthique.

Biais occidental dans la morale numérique

Les systèmes d'IA actuels sont principalement entraînés sur des données du monde occidental, ce qui conduit à une vue unilatérale de la morale. Les systèmes reproduisent souvent les valeurs de sociétés occidentales, éduquées et industrialisées, tandis que d'autres perspectives culturelles sont négligées.

Chaque algorithme apprend en outre sur des données différentes. Cela se manifeste également dans des jugements controversés, par exemple quand Delphi a qualifié l'hétérosexualité de plus moralement acceptable que l'homosexualité. Même les autres systèmes d'IA adoptent des positions philosophiques différentes.

Claude, par exemple, s'associe à l'absolutisme kantien, tandis que ChatGPT s'incline vers l'utilitarisme. Apparemment, il sera vraiment difficile de créer un algorithme moral universel alors que même les philosophes débattent des théories éthiques depuis des millénaires.

Avec le nombre croissant d'appareils intelligents dans les foyers, les risques de sécurité augmentent également. Les ampoules intelligentes, les sonnettes et même les réfrigérateurs en savent plus sur nous que nos meilleurs amis. Nous vous expliquerons comment profiter du confort d'une maison intelligente tout en préservant votre vie privée.

L'intelligence artificielle n'est plus de la science-fiction et nous avons le choix entre plusieurs assistants intelligents. Deux d'entre eux, ChatGPT et le nouveau venu DeepSeek, rivalisent maintenant pour attirer les utilisateurs. En quoi diffèrent-ils ? Et lequel est le meilleur ?

Code.org Studio est un outil en ligne populaire qui offre aux enfants (mais aussi aux adultes) un accès à des leçons de programmation amusantes et interactives. À l'aide d'instructions visuelles en bloc, ils peuvent facilement créer des animations, des jeux et des applications, développer une pensée logique et renforcer leur créativité.

Kodu Game Lab est une plateforme innovante pour l'apprentissage de la programmation, permettant aux enfants de créer leurs propres jeux grâce à un codage par blocs visuel. Ils peuvent ainsi expérimenter avec la conception de jeux, développer leur créativité et leur pensée logique.

Le projet Stargate est une initiative ambitieuse visant à créer une infrastructure pour l'intelligence artificielle aux États-Unis. L'objectif est d'investir 500 milliards de dollars au cours des quatre prochaines années. Soutenu par des géants tels qu'OpenAI, SoftBank et Microsoft, le projet promet des milliers d'emplois et la domination économique des États-Unis.

RoboMind est un outil éducatif qui sert à apprendre les bases de la programmation à l'aide d'un robot virtuel. Il utilise un langage de programmation simple appelé Robo, qui est un choix adéquat pour les débutants. Grâce à celui-ci, les étudiants apprennent la pensée algorithmique à travers des tâches pratiques telles que la navigation dans un labyrinthe ou la manipulation d'objets.

Autres versions linguistiques