Ceci ressemble au titre d’un article universitaire, mais Dieu sait à quel point je suis peu universitaire ! Je me suis depuis longtemps intéressé à l’intelligence artificielle en tant que manière d’utiliser les ordinateurs à autre chose que de computer des données de façon déterministe et, en écrivant mon dernier billet, j’ai été frappé par d’importantes analogies existant entre des périodes clef de l’histoire de l’IA et nos essais pour définir et mettre en place les premières briques de l’organisation intelligente : ce que l’on appelle l’Entreprise 2.0.
Des processus aux réseaux
Une fois les premiers rêves et mythes évaporés, la recherche en IA a commencé à se concentrer sur deux sujets différents : d’un côté la manipulation de symboles abstraits et de la compréhension d’un contexte (notamment la compréhension de la vision et du langage naturel), de l’autre la résolution de problèmes pratiques. C’est-à-dire la manière de gérer la connaissance et le savoir pour prendre des décisions, et d’en tirer les actions adéquates. A la fin des années 70, ce sujet a connu un véritable essor avec le développement des systèmes experts, qui computaient les informations recueillies à travers un large corpus de règles (l’expertise) pour générer des décisions. Les principaux problèmes rencontrés par les systèmes experts étaient la nécessité de gérer des bases de connaissances démesurées, et la difficulté à actualiser ce savoir. Cette approche me rappelle très fortement la manière dont sont prises les décisions dans nos entreprises gérées par les processus.
Pour arriver à gérer l’énorme masse de calculs nécessaires, les chercheurs commencèrent à introduire des raccourcis, tels que les moteurs heuristiques, afin de contourner quelques portions de ces gigantesques arbres de connaissance. Il est plus qu’intéressant de comparer cela avec nos tentatives d’introduire des outils et pratiques du web 2.0 dans nos processus de business, afin d’y introduire davantage de flexibilité et d’efficacité.
La publication, en 1982, de Neural networks and physical systems with emergent collective computational abilities, par John Hopfield, fut une avancée spectaculaire. Le physicien prouvait qu’un certain type de réseaux était capable de parvenir aux mêmes résultats que des systèmes à base de règles. Au lieu d’utiliser des bases de données, les réseaux neuronaux d’Hopfield stockaient la connaissance dans leurs connections au fur et à mesure qu’ils apprenaient de nouveaux schémas de savoir distribué, et déduisaient les décisions à prendre des données produites en sortie.
Pondération et convergence
L’analogie entre les réseaux neuronaux et une entreprise réellement gérée par des communautés est frappante, de même que le rapprochement entre les limites de cette approche et certaines des questions qui se posent à propos de l’Entreprise 2.0. Les réseaux neuronaux rencontrèrent deux problèmes majeurs : la pertinence et la convergence (il n’y avait aucune certitude qu’ils puissent converger autour des schémas désirés, et des techniques d’apprentissage sophistiquées, telles que la rétro-propagation, étaient nécessaires pour s’assurer de la convergence d’un tel réseau). Les médias sociaux rencontrent des problèmes identiques dans l’entreprise : comment pouvons-nous nous assurer que des communautés parviennent à un consensus permettant de prendre les bonnes décisions ? J’ai évoqué quelques pistes dans mon précédent billet, et c’est là un point crucial.
En poussant plus loin cette analogie, la manière dont les connections étaient pondérées dans un réseau neuronal peuvent nous donner une autre piste : nous pourrions également « pondérer » les conversations dans les médias sociaux afin de faciliter l’émergence d’un consensus. Un tel système existe sur le Web Social, mais est avant tout un jeu de chiffres, ceux qui possèdent le plus de « followers » ou d’amis sont le plus écoutés, et les plus influents. Les limites inhérentes à un tel système ne peuvent convenir à un contexte professionnel, et nous devons chercher plus loin de meilleurs moyens de pondérer les communautés selon l’expertise et l’autorité…
Vers de nouveaux progrès : les micro-processus
La comparaison historique s’arrête ici, l’Intelligence Artificielle ayant continué à évoluer depuis ces paradigmes. Significativement, d’explicites, les structures logiques traitant l’information sont devenues implicites, complétées par une approche hybride, « incarnée » (embodied), dans laquelle des capteurs physiques recueillent des signaux de leur environnement : les agents intelligents.
L’Entreprise 2.0 suivra-t-elle les mêmes évolutions que l’IA ? Si c’est le cas, la prochaine évolution serait de se débarrasser des gros processus métiers que nous connaissons tous, et les remplacer par des micro-processus, applicables à l’échelle de l’individu. Par exemple, la manière dont les employés japonais sont capables de faire émerger un consensus d’ateliers de travail, un des pré-requis d’une démarche Kaizen, dépend de leur profond sens de « faire ce qui est juste ». Mettre en place de tels micro-processus est un changement radical par rapport à là où nous sommes, et à là où les entreprises les plus aventureuses tentent de s’engager, et ne deviendrait possible qu’avec une démarche éducative volontaire, ainsi qu’une implication très forte du management et des Ressources Humaines. Quel que soit le futur que nous prédisions à l’Entreprise 2.0, la plupart des concepts sous-jacents sont encore balbutiants.
Pingback: Tweets that mention Ce que l’entreprise pourrait apprendre de la recherche en intelligence artificielle | Sonnez en cas d'absence -- Topsy.com
Le moteur cérébral humain est un réseau de machines de Turing. La caractéristique du gendre Homo Sapiens est qu’il intègre la capacité de passer d’une grammaire générative à une autre, ce qui lui permet d’être un individu socialement neutre. Les sociétés parfaitement organisées sont animales. Les écosystèmes des être vivants varient à la vitesse de l’évolution des espèces. Les écosystèmes humains se constituent et se défont.
La vitesse de constitution d’une organisation sociale humaine s’accroit au cours du temps. Il ne faut que quelques minutes pour se rendre compte comment un fait est perçu dans d’autres cultures (Si tant est que l’on sache que d’autres cultures existent – Ce qui n’est pas courant en France). Il fallait des années pour amorcer des échanges commerciaux autrefois.
L’intelligence artificielle a beaucoup promis au milieu des années 80, les promesses médiatisées n’ont pas été tenus. La recherche a continué son bonhomme de chemin.
Les mathématiciens sont des gens discrets en général. Un peu comme dans la publicité ou l’on voyait un jeune dire : ne dites pas à ma mère que je travaille chez Apple, elle croit que je suis ingénieur chez IBM.
Un outillage a été élaboré pendant ces douze dernières années. Cet outillage s’appelle XML. En France c’est quasiment inconnu. La distance entre la technologie disponible et l’enseignement supérieur n’a pas été réduite. Dans le même l’industrie du logiciel en France continue à s’effondrer.
Des technologies très récentes peuvent être mises à disposition des TPE/PME pour des coûts raisonnables. Il suffit de s’y mettre. Dans quelque temps j’évoquerai un résultat opérationnel d’alliance stratégique de deux TPE dans le fonctionnement repose sur une bonne utilisation de ce qui est disponible technologiquement, sans révolution copernicienne, sans trop brusquer le personnel, avec un résultat immédiat de réduction de coûts.
Je vous rejoins sur le fait que nous ne disposons pas encore d’un cadre conceptuel cohérent et intégré nous permettant d’appréhender la transformation en cours des modalités de fonctionnement des collectifs productifs. C’est une préoccupation que nous partageons.
Pour le reste, puis-je, d’une part, vous conseillez la lecture d’un article et, d’autre part, vous exprimez mon désaccord sur un point précis?
Le papier en question est l’oeuvre de MM Berdugo et Sene. Son titre est “Ethique et Knowledge Management” (vous le trouverez à la suite d’une simple requête sur tous les bons moteurs de recherche). Je vous conseille le parallèle que les auteurs proposent entre courants des sciences cognitives et logiques de gestion des connaissances. J’ai le sentiment que la compréhension des phénomènes productifs contemporains implique d’abandonner la vision “connexionniste” pour une vision “enactive”.
Alors que je prenais grand plaisir à vous lire, celui-ci s’est abimé sur l’écueil du consensus. Il a définitivement chaviré à la suite de la nécessité de “faire ce qui est juste”. Le consensus implique l’adhésion d’une majorité – ou l’absence d’opposition – à une idée. Il se distingue en ce sens du compromis qui repose sur la négociation et la renonciation pour aboutir à une solution commune (source Wikipedia). Ce n’est pas qu’une subtilité sémantique, l’usage de l’un ou l’autre trahit deux visions opposées. Le consensus s’appuie sur le postulat de l’existence d’une idée ou solution qui soit meilleure ou “juste”; l’usage du second induit la co-construction d’une solution collective. Celle-ci n’est dans l’absolu ni la meilleure ni la plus juste ; elle l’est cependant au niveau du groupe.
Connexionnisme et énaction s’oppose également sur la préexistance ou non d’une solution. Dans le premier courant, il est nécessaire d’atteindre la configuration réticulaire la meilleure ; pour le second, la réalité et donc le comportement se construisent au cours de nombreuses interactions.
Si une organisation intelligente doit émerger, ne doit-elle pas plutôt fonctionner selon des principes d’énaction?
Au plaisir de vous lire.
Philppe
Passionant commentaire, Philippe, qui me laisse avec plus de questions que de réponses… Je ne peux qu’être d’accord avec vous sur la supériorité d’une vision “énactive” de l’entreprise dans un cadre global qui, pour reprendre les termes de l’article que vous mentionnez, “va faire co-émerger ou co-naître, la conscience et le monde”. Cela correspond tout à fait à mon approche de l’entreprise en terme de système fractal, et pose un cadre important pour l’apprentissage en entreprise.
Par contre, cette logique d’apprentissage peut-elle être en ligne avec une logique de production ? La notion de consensus sous-tend pour moi, non la pré-existence d’une solution, mais la pré-existence, en dehors du groupe, d’éléments permettant d’aboutir à une solution, que ces éléments relèvent de la propriété intellectuelle (brevets par exemple), de la stratégie globale de l’entreprise, ou du marketing, dans le sens Druckerien du terme. Il y a donc lieu d’aligner une solution sur la connaissance de ces éléments extérieurs, que ceux-ci soient amenés par le management, ou par des méta-structures tels que des réseaux informels.
Je serais heureux de discuter plus avant avec vous sur ces sujets.
Thierry