Une interprétation quantique des processus organisationnels d ...

Ce diagramme met en relation le produit et son milieu extérieur, par ... Pour cette
analyse, le diagramme FAST se limitera à la description de la FSP ...

Part of the document


UNIVERSITE DE DROIT, D'ECONOMIE ET DES SCIENCES D'AIX-MARSEILLE III
Institut d'Administration des Entreprises Aix-en-Provence Ecole Doctorale des Sciences Economique et de Gestion d'Aix-Marseille THESE
Pour l'obtention de l'
HABILITATION A LA DIRECTION DES RECHERCHES EN SCIENCES DE GESTION
Présentée et soutenue publiquement le 16 septembre 2004 Une Interprétation Quantique des Processus Organisationnels d'Innovation
Walter Baets, PhD
Jury : Professeur Jacques-André Bartoli, Directeur de recherche,
Université de droit, d'économie et des sciences d'Aix-Marseille III
Professeur Emerite Jean-Pierre Brans, Rapporteur, Vrije Universiteit
Brussel, Belgique
Professeur Jean-Louis Ermine, INT Management, Paris
Professeur Claude Jameux, Rapporteur, Université d'Annecy
Professeur Emerite Jean-Louis Le Moigne, Rapporteur,
Université de droit, d'économie et des sciences d'Aix-Marseille III
Prof Frantz Rowe, Rapporteur, Université de Nantes
Une interprétation quantique des processus organisationnels d'innovation:
un propos scientifique
Walter Baets, PhD
Euromed Marseille - Ecole de Management
Universiteit Nyenrode, les Pays-Bas
Le sommaire
Résumé exécutif 1
1. La réflexion Taylorienne en management 12 2. En intégrant des aspects sociaux et organisationnels un nouveau monde
s'ouvre 21 3. Des expérimentations avec des réseaux neuronaux artificiels et la
découverte des « Complex Adaptive Systems » (CAS) 28 4. Les choix épistémologiques : notre pensée est le fondement de notre
observation 36 5. La théorie sous-jacente : un nouveau paradigme 56 6. Applications de la théorie de la complexité : la connaissance et
l'apprentissage 83 7. La structure quantique de l'innovation 112 8. Un début d'évidence : le processus d'innovation comme un concept
émergent d'apprentissage 132 Les travaux de recherches et les publications de Walter Baets 144
1.1. La réflexion Taylorienne en management
Après la deuxième guerre mondiale, avec une importance accrue dans les
années 70 et 80, et grâce à la capacité croissante des ordinateurs, le
"management scientifique" (à ne pas à confondre avec la science de la
gestion d'entreprises) a connu des succès formidables. Les techniques
d'optimisation de toutes sortes étaient appliquées avec beaucoup de succès
aux multiples processus d'entreprise. L'optimisation de processus, la
gestion des files d'attentes, et des problèmes comparables entraient bien
dans l'objectif d'amélioration par la programmation mathématique. Il était
encore plus difficile, quand on a commencé à utiliser les techniques
quantitatives afin d'essayer de prévoir le comportement des marchés. Nous
n'avons pu faire autre chose que de passer aux phénomènes stochastiques.
Mais la question était rarement posée, de savoir si un certain comportement
de marché était bien effectivement stochastique ou plutôt "chaotique".
Cette dernière notion, d'ailleurs, n'était à ce moment-là pas encore connue
et il n'existait pas, à l'époque, les instruments conceptuels nécessaires. Vers la fin des années 70, l'économétrie a connu un développement
incroyable. Nous avons pu implémenter dans le marketing des modèles
économétriques, qui prévoyaient l'évolution des marchés presque sans faute.
L'utilisation dans la pratique a été souvent moins répandue. Cela, disait-
on, était dû au fait que les techniques n'étaient pas encore assez
raffinées, ou bien que le modèle n'avait pas été encore assez bien
développé. Dans la pratique, toutefois, on se contentait de prévoir les
phénomènes plutôt faciles, dans le sens réguliers, pour lequel il ne faut
aucune technique bien élaborée : chaque enfant peut prolonger une ligne
droite. Pendant longtemps, le concept même de la prévision et surtout les
présupposés derrière le concept étaient tenus en dehors de la discussion.
Nous avons pensé tous ensemble que nous pouvions prévoir et expliquer
presque tous les phénomènes de management et de comportement des marchés.
Les études d'élasticité en ce temps sont nombreuses. À cette période j'ai
moi-mêmecontribué activement à la recherche et à l'application des méthodes
économétriques (voir la liste de publication en bas de ce chapitre). Mais
parmi les véritables utilisateurs - ceux qui ont essayé de créer des
modèles dans la pratique - le scepticisme a grandi. Bien que la
construction du modèle était un exercice intéressant, on a rarement réussi
à résoudre de vrais problèmes complexes dans un modèle. On a pu modéliser
avec succès les phénomènes, souvent isolés, qui avaient une stabilité
inhérente. Les modèles macro-économétriques, ou les modèles de marchés, qui
essayaient de capter des comportement très irrégulier, allant jusqu'aux
modèles de liquidité sont apparus très difficile en pratique. Les concepts, qui sont devenus populaires plus tard, comme l'organisation
apprenante ou l'analyse de scénarios, était déjà mis en ?uvre et
expérimenté longtemps avant (voir l'exemple pour Belgacom ; Baets, 1984).
Dans ces types d'applications, on avait progressé d'un pas. Bien que cela
ne fonctionnait pas en prévision, au moins ces modèles permettaient des
analyses de sensibilités. Mais la problématique reste bien entendu la
même : la qualité des ces analyses de sensibilité est totalement dépendante
de la qualité du modèle avec lequel elle est effectuée. Ma contribution à EJOR, 1987, avait pour objectif de résumer ce phénomène :
comment peut-on effectuer la planification stratégique dans un entourage
incertain. En d'autres termes : a quoi servent les modèles si
l'environnement économique est dynamique. C'était le caractère dynamique
qui semblait être la cause des problèmes. Plus tard apparaîtra aussi qu'il
s'agissait non seulement du caractère dynamique, mais aussi de la non-
linearité. Il a été accepté souvent que, en supposant une réalité plutôt
linéaire, on pourrait se servir de modèles linéaires aussi. C'est du reste
une acceptation qui est remise jusqu'à aujourd'hui trop peu en question
dans la gestion d'entreprises. Dans mes contributions, je ne suis pas non plus arrivé aux questions
fondamentales souvent cachées derrières les acceptations (théoriques) de la
modélisation. Celles-ci sont de double nature. On a d'abord les
acceptations techniques, comme l'orthogonalité des variables et
l'homoscedasticité des erreurs par exemple. Les variables utilisées dans
les analyses économétriques sont supposées de ne pas avoir (ou très peu) de
corrélation mutuelle. Dans la pratique, il est difficile de trouver des
variables qui ne seraient pas réciproquement en influence. Mais c'est
encore plus rare de voir des études ou on vérifie vraiment la distribution
de l'erreur. Par contre, les deux conditions ont des conséquences graves si
elles ne sont pas satisfaites : risque sur l'exactitude et la stabilité des
coefficients estimés. Je souhaite maintenant approfondir cette
argumentation, qui me semble très importante. Dans les études
économétriques avancées, entre autres faites par le MIT (pour le logiciel
économétrique TROLL), on essayait de retravailler les données avant de les
traiter. Ce travail consistait en un processus de « smoothing », pour
éviter des valeurs aberrantes et extrêmes, qui causaient des perturbations
dans les estimations. Toutes les observations qui pourraient raconter des
choses intéressantes (les aberrations) ont été abandonnées, parce qu'elles
compliquent techniquement l'estimation. Bien que cette évolution soit
élégante d'un point de vue de la technique de modélisation, aucune solution
n'est vraiment apportée au problème à résoudre. Les modèles s'éloignent de
plus en plus de la réalité. De plus, si le doute a pu exister au sujet de l'utilité des modèles dans
les marchés dynamiques, les résultats catastrophiques obtenus par des
lauréats du prix Nobel en gestion de fortunes devraient avoir choqué le
monde. Le « random walk » fait mieux que n'importe quel manager de
portefeuille, au moins, selon les publications académiques. Le récent
déclin de la bourse a aussi eu un impact énorme sur les fonds
d'investissement (par exemple les caisses de retraite) parce que les
modèles avec lesquels ces fonds sont gérés échouent manifestement trop
souvent. Le problème doit donc se trouver ailleurs. Pendant les années de ma propre
recherche (voir les publications), et la douzaine d'années d'expérience de
construction des modèles économétriques et d'optimisation des risques
financiers, j'ai abordé dans mes travaux une question plus fondamentale.
Derrière la modélisation quantitative, on pré-suppose que le raisonnement
humain est basé sur des symboles et sur la manipulation de ces symboles.
Dans la mesure où cette croyance est inexacte, la conception des
ordinateurs, eux-mêmes basés sur la manipulation de symboles ne saurait
refléter la pensée humaine. Dans la première partie de mes travaux, j'étais moi-même un convaincu de
l'approche symbolique. La figure ci-dessous décrit les deux écoles de pensées, qui ont livré dans
les années 50 un combat académique sur le fait de savoir comment les gens
pensaient, en vue de la construction des ordinateurs. L'intention de la
conception des ordinateurs a toujours été l'imitation de l'une ou l'autre
de ces écoles de pensées. Et bien quau début les ambitions étaient
limitées, après la période initiale, les attentes vis-à-vis de ce que nous
connaissons comme « l'intelligence artificielle » sont devenues de plus en
plus importantes. Nous reviendrons sur cela plus tard. Si l'intention de l'ordinateur est effectivement d'imiter la pensée
humaine, alors on doit s'interroger sur les mécanismes cognitifs de
l'homme. Laisser nous commencer d'abord avec le premier école de pensée :
la colonne de gauche dans la figure. Selon cette école, le cerveau humain fonctionne avec des