Pourquoi certaines entreprises envisagent-elles d'ajouter des «contrôles de rétroaction humaine» aux systèmes d'IA modernes? Présenté par: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q:

Auteur: Roger Morrison
Date De Création: 25 Septembre 2021
Date De Mise À Jour: 9 Peut 2024
Anonim
Pourquoi certaines entreprises envisagent-elles d'ajouter des «contrôles de rétroaction humaine» aux systèmes d'IA modernes? Présenté par: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - La Technologie
Pourquoi certaines entreprises envisagent-elles d'ajouter des «contrôles de rétroaction humaine» aux systèmes d'IA modernes? Présenté par: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); Q: - La Technologie

Contenu

Présenté par: AltaML



Q:

Pourquoi certaines entreprises envisagent-elles d'ajouter des "contrôles de rétroaction humaine" aux systèmes d'IA modernes?

UNE:

Certaines entreprises travaillant avec une technologie d’IA de pointe s’efforcent de mettre en place des contrôles humains pour ces systèmes, offrant ainsi un contrôle humain direct aux outils d’apprentissage par la machine et d’apprentissage en profondeur. DeepMind de Google et OpenAI d’Elon Musk sont deux exemples de grandes entreprises qui s’intéressent de près aux avancées de l’intelligence artificielle. Dans cet esprit, les résultats diffèrent - par exemple, DeepMind a fait l’objet d’une controverse en raison de sa réticence perçue à fournir des données clés au public, alors que OpenAI est beaucoup plus, bien, ouvert sur ses travaux sur le contrôle de l’intelligence artificielle.


Même des notables comme Bill Gates ont pesé sur la question, Gates affirmant qu'il est l'un des nombreux préoccupés par l'émergence d'une surintelligence artificielle qui pourrait, d'une certaine manière, dépasser le contrôle humain. Musk, pour sa part, a également avancé un langage alarmant sur la possibilité d’une «IA malhonnête».

C’est probablement la raison la plus urgente pour laquelle les entreprises s’efforcent d’appliquer des contrôles humains à l’intelligence artificielle - l’idée que certaines singularités technologiques aboutiront à une technologie sensible très puissante que les humains ne pourront tout simplement plus contrôler. Depuis le début des ambitions humaines, nous avons mis en place des outils nous permettant de contrôler les pouvoirs que nous détenons - qu'il s'agisse de chevaux avec rênes et harnais, d'électricité dans des fils isolés ou de tout autre type de mécanisme de contrôle le contrôle est une fonction intrinsèquement humaine et il est donc logique de penser que, lorsque l'intelligence artificielle se rapproche de la fonctionnalité réelle, les humains appliquent leurs propres contrôles directs pour contrôler ce pouvoir.


Cependant, la peur des robots super-intelligents n'est pas la seule raison pour laquelle les entreprises appliquent des contrôles humains aux projets d'apprentissage automatique et d'intelligence artificielle. Une autre raison majeure est le biais de la machine - c'est l'idée que les systèmes d'intelligence artificielle sont souvent limités dans la façon dont ils évaluent les données en question - de sorte qu'ils amplifient tout biais inhérent au système. La plupart des professionnels de l’apprentissage automatique peuvent raconter des histoires horribles à propos de systèmes informatiques qui n’ont pas été en mesure de traiter les groupes d’utilisateurs humains de la même manière - qu’il s’agisse d’une disparité entre les sexes ou des ethnies, ou de tout autre échec du système à comprendre réellement les nuances de nos sociétés humaines et de nos sociétés. comment nous interagissons avec les gens.

En un sens, nous pouvons mettre en place des contrôles humains sur les systèmes, car nous craignons qu’ils ne soient trop puissants - ou, au contraire, parce que nous craignons qu’ils ne soient pas assez puissants. Les contrôles humains permettent de cibler des ensembles de données d’apprentissage automatique pour plus de précision. Ils aident à renforcer des idées que l’ordinateur ne peut tout simplement pas apprendre par lui-même, soit parce que le modèle n’est pas assez sophistiqué, parce que l’intelligence artificielle n’a pas progressé assez loin, ou parce que certaines choses relèvent du domaine de la cognition humaine. L'intelligence artificielle est excellente pour certaines choses - par exemple, un système basé sur les récompenses et les scores a permis à une intelligence artificielle de battre un joueur humain au jeu de plateau extrêmement complexe «Go» - mais pour d'autres choses, ce système basé sur des incitations est: tout à fait insuffisant.

En résumé, il existe de nombreuses raisons impérieuses de maintenir les utilisateurs humains directement impliqués dans le fonctionnement des projets d’intelligence artificielle. Même les meilleures technologies d’intelligence artificielle peuvent faire l’objet de beaucoup de réflexion - mais sans un cerveau humain biologique capable de traiter des choses telles que les émotions et les mœurs sociales, ils ne peuvent tout simplement pas voir la situation dans son ensemble.

Une entreprise spécialisée dans l'apprentissage automatique peut aider à trouver cet équilibre avec un mélange d’experts en affaires et en la matière, ainsi que des développeurs en apprentissage automatique dotés des compétences nécessaires pour résoudre les grands problèmes de l’entreprise.