Hostname: page-component-78c5997874-fbnjt Total loading time: 0 Render date: 2024-11-10T09:50:54.809Z Has data issue: false hasContentIssue false

GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs

Published online by Cambridge University Press:  08 October 2009

Y. Caseau*
Affiliation:
Bouygues Telecom, 20 Quai du Point du Jour, Boulogne-Billancourt Telecom, France; yves@caseau.com
Get access

Abstract

Cet article décrit une approche de la modélisation d'un système d'acteurs, particulièrement adaptée à la modélisation desentreprises, fondée sur la théorie des jeux [11] et sur l'optimisation par apprentissage du comportement de ces acteurs. Cette méthode repose sur la combinaison de trois techniques : la simulation par échantillonnage (Monte-Carlo), la théorie des jeux pour ce qui concerne la recherche d'équilibre entre les stratégies, et les méthodes heuristiques d'optimisation locale, en particulier les algorithmes génétiques. Cette combinaison n'est pas originale en soi, même si elle est rarement utilisée avec toute la puissance d'expression conjointe de ces techniques. La contribution de cet article est double : d'une part nous proposons un modèle qui permet de structurer de façon systématique cette collaboration entre différentes techniques et, d'autre part, nous utilisons la technique des algorithmes génétiques pour enrichir la recherche des équilibres de Nash sous forme de points fixes. Il s'agit d'une méthode de simulation, qui n'est pas destinée à la résolution de problèmes, mais à la validation et l'étude des propriétés d'un modèle associé à un problème particulier.

Type
Research Article
Copyright
© EDP Sciences, ROADEF, SMAI, 2009

Access options

Get access to the full version of this content by using one of the access options below. (Log in options will check for institutional or personal access. Content may require purchase if you do not have access.)

References

E. Aarts and J.K. Lenstra, Local search in combinatorial optimisation. Wiley (1993).
R. Axelrod, The complexity of cooperation-agent-based models of competitions and cooperation. Princeton University Press (1997).
Caseau, Y., Silverstein, G. and Laburthe, F., Learning hybrid algorithms for vehicle routing problems. Theory Pract. Log. Program. 1 (2001) 779806.
G. Donnadieu and M. Karsky, La systémique, penser et agir dans la complexité. Éditions Liaisons (2002).
J. Dréo, A. Petrowski, P. Siarry and E. Taillard, Métaheuristiques pour l'optimisation difficile. Eyrolles, Paris (2003).
R. Duncan Luce and H. Raiffa, Games and decisions – Introduction and critical survey. Dover Publications, New York (1957).
J. Ferber, Les Systèmes multi-agents : vers une intelligence collective. Dunod, Paris (2007).
J. Forrester, Principles of systems. System Dynamics Series, Pegasus Communications, Waltham (1971).
R. Gibbons, Game theory for applied economists. Princeton University Press (1992).
S. Jørgensen, M. Quincampoix and T. Vincent (Eds.) Advances in dynamic game theory: numerical methods, algorithms, and applications to ecology and economics (Annals of the International Society of Dynamic Games). Birkhauser, Boston (2007).
G.A. Korn, Advanced dynamic-system simulation: model-replication techniques and Monte Carlo simulation. Wiley Interscience (2007).
M. Mongeau, Introduction à l'optimisation globale. Bulletin ROADEF N° 19 (2007).
R. Nelson and S. Winter, An evolutionary theory of economic change. Belknap, Harvard (1982).
N. Nissan, T. Roughgarden, E. Tardos and V.V. Vazirani, Algorithmic game theory. Cambridge University Press (2007).
B. Slantchev, Game theory: repeated Games. University of California – San Diego. http://polisci.ucsd.edu/ bslantch/courses/gt/07-repeated-games.pdf (2004).
J. Sterman, Business dynamics – System thinking and modeling for a complex world. McGraw Hill (2001).
J. Watson, Strategy – An introduction to game theory. Norton (2002).