Ces points de douleur empêchent les entreprises d'adopter un apprentissage en profondeur

Auteur: Roger Morrison
Date De Création: 23 Septembre 2021
Date De Mise À Jour: 1 Juillet 2024
Anonim
Ces points de douleur empêchent les entreprises d'adopter un apprentissage en profondeur - La Technologie
Ces points de douleur empêchent les entreprises d'adopter un apprentissage en profondeur - La Technologie

Contenu


Source: Agsandrew / Dreamstime.com

À emporter:

L'apprentissage en profondeur a beaucoup à offrir aux entreprises, mais beaucoup hésitent encore à l'adopter. Nous examinons ici certains de ses points les plus douloureux.

L'apprentissage en profondeur est un sous-domaine de l'apprentissage automatique, technologie qui s'inspire (d'une manière générale) du cerveau humain et de ses fonctions. Introduit pour la première fois dans les années 1950, l’apprentissage automatique repose sur ce que l’on appelle le réseau de neurones artificiels, une multitude de nœuds de données interconnectés qui constituent collectivement la base de l’intelligence artificielle. (Pour les bases de l'apprentissage automatique, consultez Machine Learning 101.)

L'apprentissage automatique permet essentiellement aux programmes informatiques de se modifier eux-mêmes lorsque des données externes ou des programmes le leur demandent. Par nature, il est capable de le faire sans interaction humaine. Il partage une fonctionnalité similaire avec l'exploration de données, mais avec des résultats minés devant être traités par des machines plutôt que par des humains. Il est divisé en deux grandes catégories: apprentissage supervisé et non supervisé.


L'apprentissage automatique supervisé implique l'inférence d'opérations prédéterminées à l'aide de données d'apprentissage étiquetées. En d'autres termes, les résultats supervisés sont connus à l'avance par le programmeur (humain), mais le système qui en déduit les résultats est formé pour les "apprendre". L'apprentissage automatique non supervisé, en revanche, tire des conclusions à partir de données d'entrée non étiquetées, souvent comme moyen de détecter des modèles inconnus.

L'apprentissage en profondeur est unique par sa capacité à se former à l'aide d'algorithmes hiérarchiques, par opposition aux algorithmes linéaires d'apprentissage automatique. Les hiérarchies d'apprentissage en profondeur sont de plus en plus complexes et abstraites à mesure qu'elles se développent (ou «apprennent») et ne reposent pas sur une logique supervisée. En termes simples, l’apprentissage en profondeur est une forme d’apprentissage automatique hautement perfectionnée, précise et à la pointe de la technologie de l’intelligence artificielle.


Applications professionnelles de l'apprentissage en profondeur

L'apprentissage automatique est déjà couramment utilisé dans plusieurs industries. Les médias sociaux, par exemple, l'utilisent pour gérer les flux de contenu dans les chronologies des utilisateurs. Google Brain a été créée il y a plusieurs années dans le but de produire un apprentissage approfondi dans la gamme de services de Google à mesure que la technologie évolue.

Axé sur l'analyse prédictive, le domaine du marketing est particulièrement investi dans l'innovation en apprentissage en profondeur. Et puisque l’accumulation de données est le moteur de la technologie, des secteurs comme les ventes et le support client (qui possèdent déjà une mine de données client riches et variées) sont particulièrement bien placés pour l’adopter au niveau de la base.

Une adaptation précoce à un apprentissage en profondeur pourrait très bien être le facteur déterminant pour déterminer dans quelle mesure des secteurs spécifiques bénéficient de la technologie, en particulier à ses débuts. Néanmoins, quelques difficultés particulières empêchent de nombreuses entreprises de se lancer dans des investissements en technologies d’apprentissage en profondeur.

Les V du Big Data et du Deep Learning

En 2001, un analyste du groupe META (aujourd'hui Gartner), du nom de Doug Laney, décrivait ce que les chercheurs considéraient comme les trois principaux défis du big data: volume, variété et vélocité. Plus d’une décennie et demi plus tard, l’augmentation rapide du nombre de points d’accès à Internet (due en grande partie à la prolifération des appareils mobiles et à la montée en puissance de la technologie IoT) a mis ces problèmes au premier plan pour les grandes entreprises de technologie ainsi que pour les petites entreprises. et les startups. (Pour en savoir plus sur les trois v, voir le défi Big Data actuel, qui découle de la variété, pas du volume ni de la vélocité.)

Pas de bugs, pas de stress - Votre guide étape par étape pour créer un logiciel qui change la vie sans vous détruire

Vous ne pouvez pas améliorer vos compétences en programmation lorsque personne ne se soucie de la qualité des logiciels.

Les statistiques récentes sur l'utilisation des données globales sont stupéfiantes. Des études indiquent qu’environ 90% de toutes les données mondiales n’ont été créées qu’au cours des deux dernières années. Selon une estimation, le trafic mobile mondial s'élevait à environ sept exaoctets par mois en 2016 et ce nombre devrait être multiplié par sept environ au cours des cinq prochaines années.

Au-delà du volume, la variété (la diversité croissante des types de données à mesure que les nouveaux médias évoluent) et la rapidité (la vitesse à laquelle les médias électroniques sont envoyés aux centres de données et hubs) sont également des facteurs majeurs de la manière dont les entreprises s'adaptent au domaine en plein essor. d'apprentissage en profondeur. Et pour développer le dispositif mnémonique, plusieurs autres v-words ont été ajoutés à la liste des points critiques de Big Data au cours des dernières années, notamment:

  • Validity: Mesure de la précision des données saisies dans les systèmes Big Data. Les données non détectées qui ne sont pas détectées peuvent entraîner des problèmes importants ainsi que des réactions en chaîne dans les environnements d'apprentissage automatique.
  • Vulnérabilité: Le Big Data évoque naturellement des problèmes de sécurité, simplement en raison de son ampleur. Et bien que les systèmes de sécurité rendus possibles par l’apprentissage automatique offrent un grand potentiel, ces systèmes, dans leur incarnation actuelle, se caractérisent par leur manque d’efficacité, en particulier en raison de leur tendance à générer des fausses alarmes.
  • Valeur: Prouver la valeur potentielle du Big Data (en entreprise ou ailleurs) peut constituer un défi de taille pour plusieurs raisons. Si l’un des points critiques de cette liste ne peut pas être traité efficacement, il pourrait en fait apporter une valeur négative à tout système ou organisation, même avec un effet catastrophique.

Parmi les autres points douloureux allitératifs ajoutés à la liste figurent la variabilité, la véracité, la volatilité et la visualisation, qui présentent tous leurs propres défis propres aux systèmes de données volumineuses. Et il est encore possible d’ajouter d’autres ressources au fur et à mesure que la liste existante s’efface. Bien que cela puisse sembler un peu artificiel à certains, la liste mnémonique «v» englobe de graves problèmes auxquels sont confrontées les mégadonnées qui jouent un rôle important dans l’avenir de l’apprentissage en profondeur.

Le dilemme de la boîte noire

L’une des caractéristiques les plus attrayantes de l’apprentissage en profondeur et de l’intelligence artificielle réside dans le fait qu’ils sont tous deux destinés à résoudre des problèmes impossibles à résoudre. Le même phénomène censé permettre cela présente toutefois un dilemme intéressant, qui se présente sous la forme de ce que l’on appelle la «boîte noire».

Le réseau de neurones créé par le processus d'apprentissage en profondeur est si vaste et complexe que ses fonctions complexes sont essentiellement impossibles à observer par l'observation humaine. Les scientifiques et les ingénieurs en matière de données peuvent avoir une compréhension approfondie de ce qui entre dans les systèmes d’apprentissage en profondeur, mais la manière dont ils parviennent à leurs décisions de sortie reste le plus souvent totalement inexpliquée.

Bien que cela ne soit pas un problème majeur pour les spécialistes du marketing ou les vendeurs (en fonction de ce qu’ils commercialisent ou vendent), d’autres secteurs exigent un certain nombre de validations de processus et de raisonnements afin de tirer le meilleur parti des résultats. Une société de services financiers, par exemple, pourrait utiliser un apprentissage approfondi pour mettre en place un mécanisme de notation du crédit extrêmement efficace. Toutefois, les cotes de crédit doivent souvent être accompagnées d'explications verbales ou écrites qu'il serait difficile de former si l'équation de crédit était totalement opaque et inexplicable.

Ce problème s'étend également à de nombreux autres secteurs, notamment dans les domaines de la santé et de la sécurité. La médecine et les transports pourraient évidemment tirer des avantages majeurs d’un apprentissage en profondeur, mais seraient également confrontés à un obstacle important, à savoir la boîte noire. Tous les résultats de sortie dans ces champs, aussi bénéfiques soient-ils, pourraient être totalement ignorés en raison de la totale obscurité de leurs algorithmes sous-jacents. Cela nous amène peut-être au point de douleur le plus controversé de tous…

Régulation

Au printemps 2016, l'Union européenne a adopté le règlement général sur la protection des données (GDPR), qui accorde (entre autres) aux citoyens le «droit à une explication» pour les décisions automatisées générées par les systèmes d'apprentissage automatique qui les «affectent» de manière significative. Prévu pour entrer en vigueur en 2018, le règlement suscite l'inquiétude des entreprises de haute technologie qui investissent dans l'apprentissage en profondeur en raison de son boîtier noir impénétrable, ce qui empêcherait dans de nombreux cas l'explication demandée par le GDPR.

La «prise de décision individuelle automatisée» que le GDPR entend restreindre est une caractéristique essentielle de l'apprentissage en profondeur. Cependant, les préoccupations relatives à cette technologie sont inévitables (et largement valables) lorsque le potentiel de discrimination est si élevé et la transparence si faible. Aux États-Unis, la Food and Drug Administration réglemente de la même manière le test et la commercialisation des médicaments en exigeant que ces processus restent contrôlables. Cela a constitué un obstacle pour l’industrie pharmaceutique, comme cela aurait été le cas pour la société de biotechnologie Biogen basée au Massachusetts, qui n’a pas été en mesure d’utiliser des méthodes d’apprentissage en profondeur ininterprétables en raison de la réglementation de la FDA.

Les implications d'un apprentissage en profondeur (moral, pratique et au-delà) sont sans précédent et, franchement, assez profondes. La technologie suscite beaucoup d'appréhension, en raison principalement de la combinaison de son potentiel perturbateur, de sa logique et de ses fonctionnalités opaques.Si les entreprises peuvent prouver l’existence d’une valeur tangible dans l’apprentissage en profondeur qui dépasse toutes les menaces et tous les dangers imaginables, elles pourraient alors nous aider à passer à la prochaine phase critique de l’intelligence artificielle.