CLIN
NOUS CONTACTER




L'intelligence Artificielle WIKIPEDIA.

05/03/2020 à 21:06:47
Image tirée sur WIKIPEDIA. Article Publié par Destiny Kasigwa un passionné du Web.

L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu'à une discipline autonome constituée. D'autres, remarquant la définition peu précise de l'IA, notamment la CNIL, introduisent ce sujet comme « le grand mythe de notre temps ».

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (partie des mathématiques et de la philosophie) et à l'informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses fonctions cognitives

Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques. La réalité semble encore tenir l'intelligence artificielle loin des performances du vivant ; ainsi, l'IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles

Définition

Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». On y trouve donc le côté « artificiel » atteint par l'usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d'imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'un robot dans un milieu inconnu ou hostile.
Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l'IA qui varient sur deux points fondamentaux:

les définitions qui lient l'IA à un aspect humain de l'intelligence, et celles qui la lient à un modèle idéal d'intelligence, non forcément humaine, nommée rationalité ;
les définitions qui insistent sur le fait que l'IA a pour but d'avoir toutes les apparences de l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d'IA doit ressembler également à celui de l'être humain et être au moins aussi rationnel.

Historique

Historiquement, l'idée d'intelligence artificielle semble émerger dans les années 1950 quand Alan Turing se demande si une machine peut « penser ». Dans un article « Computing Machinery and Intelligence » (Mind, octobre 1950)Turing explore ce problème et propose une expérience (maintenant dite test de Turing) visant à trouver à partir de quand une machine deviendrait « consciente ». Il développe ensuite cette idée dans plusieurs forums, dans la conférence « L'intelligence de la machine, une idée hérétique », dans la conférence qu'il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? » ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser ? »
Une autre origine probable est la publication, en 1949, par Warren Weaver d'un mémorandum sur la traduction automatique des langues qui suggère qu'une machine puisse faire une tâche qui relève typiquement de l'intelligence humaine.

Le développement des technologies informatiques (puissance de calcul) aboutit ensuite à plusieurs avancées :

dans les années 1980, l'apprentissage automatique (« Machine Learning ») se développe. L'ordinateur commence à déduire des « règles à suivre » rien qu'en analysant des données ;
parallèlement, des algorithmes « apprenants » sont créés qui préfigurent les futurs réseaux de neurones, l'apprentissage par renforcement, les machines à vecteurs de support, etc.). Ceci permet par exemple en mai 1997 à l’ordinateur Deep Blue de battre Garry Kasparov au jeu d'échecs ;
l'intelligence artificielle devient un domaine de recherche international, marquée par une conférence au Dartmouth College à l’été 1956 à laquelle assistaient ceux qui vont marquer la discipline ;
depuis les années 1980, la recherche se fait principalement aux États-Unis, notamment à l'université Stanford sous l'impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l'université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à l'université d'Édimbourg sous celle de Donald Michie, en Europe et en Chine. En France, l'un des pionniers est Jacques Pitrat ;
dans les années 2000, le Web 2.0, le big data et de nouvelles puissances et infrastructures de calcul, permettent à certains ordinateurs d'explorer des masses de données sans précédent ; c'est l'apprentissage profond (« deep learning »).
Les bornes de ce domaine varient, ainsi optimiser un itinéraire était considéré comme un problème d'intelligence artificielle dans les années 1950, et n'est plus considéré aujourd’hui que comme un simple problème d'algorithme.

Vers 2015, le secteur de l'intelligence artificielle cherche à relever trois défis : la perception de l'environnement, la compréhension d’une situation et la prise de décision par une IA. Produire et organiser des données massives et de qualité, c'est-à-dire corrélées, complètes, qualifiées (sourcées, datées, géoréférencées...), historisées est un autre enjeu. Et la capacité déductive et de généralisation pertinente d'un ordinateur, à partir de peu de données ou d'un faible nombre d'évènements, est un autre objectif, plus lointain
Entre 2010 et 2017, les investissements auraient été décuplés, dépassant de 5 milliards d’euros en 2017.

Précurseurs Modifier
Si les progrès de l’intelligence artificielle sont récents, ce thème de réflexion est tout à fait ancien, et il apparaît régulièrement au cours de l’histoire. Les premiers signes d’intérêt pour une intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.

Automates Modifier
 Article connexe : Automate.
Une des plus anciennes traces du thème de « l’homme dans la machine » date de 800 avant notre ère, en Égypte. La statue du dieu Amon levait le bras pour désigner le nouveau pharaon parmi les prétendants qui défilaient devant lui, puis elle « prononçait » un discours de consécration. Les Égyptiens étaient probablement conscients de la présence d’un prêtre actionnant un mécanisme et déclarant les paroles sacrées derrière la statue, mais cela ne semblait pas être pour eux contradictoire avec l’incarnation de la divinité. Vers la même époque, Homère, dans L'Iliade (XVIII, 370–421), décrit les automates réalisés par le dieu forgeron Héphaïstos : des trépieds munis de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure du dieu ; ou encore, deux servantes forgées en or qui l’assistent dans sa tâche. De même, le Géant de bronze Talos, gardien des rivages de la Crète, était parfois considéré comme une œuvre du dieu.
Vitruve, architecte romain, décrit l’existence entre le iiie et le ier siècle avant notre ère, d’une école d’ingénieurs fondée par Ctesibius à Alexandrie, et concevant des mécanismes destinés à l’amusement tels des corbeaux qui chantaient. Héron L'Ancien décrit dans son traité « Automates », un carrousel animé grâce à la vapeur et considéré comme anticipant les machines à vapeur. Les automates disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger Bacon la conception d'automates doués de la parole; en fait, probablement de mécanismes simulant la prononciation de certains mots simples.

Léonard de Vinci a construit en 1515 un automate en forme de lion pour amuser le roi de France, François I. Gio Battista Aleotti et Salomon de Caus, eux, ont construit des oiseaux artificiels et chantants, des flûtistes mécaniques, des nymphes, des dragons et des satyres animés pour égayer des fêtes aristocratiques, des jardins et des grottes. René Descartes, lui, aurait conçu en 1649 un automate qu’il appelait « ma fille Francine ». Il conduit par ailleurs une réflexion d’un modernisme étonnant sur les différences entre la nature des automates, et celles d’une part des animaux (pas de différence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le précurseur méconnu d’un des principaux thèmes de la science-fiction : l'indistinction entre le vivant et l’artificiel, entre les hommes et les robots, les androïdes ou les intelligences artificielles.

Jacques de Vaucanson a construit en 1738 un « canard artificiel de cuivre doré, qui boit, mange, cancane, barbote et digère comme un vrai canard ». Il était possible de programmer les mouvements de cet automate, grâce à des pignons placés sur un cylindre gravé, qui contrôlaient des baguettes traversant les pattes du canard. L’automate a été exposé pendant plusieurs années en France, en Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mécanisme interne. Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquée à partir des aliments ingérés, mais préparée à l’avance. D’autres estiment que cet avis n’est fondé que sur des imitations du canard de Vaucanson. Malheureusement, l’incendie du musée de Nijni Novgorod en Russie vers 1879 détruisit cet automate.

Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les meilleurs automates fondés sur un système purement mécanique, avant le développement des dispositifs électromécaniques. Certains de ces automates, par un système de cames multiples, étaient capables d'écrire un petit billet (toujours le même). Enfin, Les Contes d'Hoffmann (et ballet) L'Homme au sable décrit une poupée mécanique dont s'éprend le héros.

Pensée automatique


Parmi les premiers essais de formalisation de la pensée, les tentatives suivantes peuvent être citées :

Raymond Lulle, missionnaire, philosophe, et théologien espagnol du xiiie siècle, a fait la première tentative pour engendrer des idées par un système mécanique. Il combinait aléatoirement des concepts grâce à une sorte de règle à calcul, un zairja, sur laquelle pivotaient des disques concentriques gravés de lettres et de symboles philosophiques. Il baptisa sa méthode Grand Art (Ars Magna), fondée sur l’identification de concepts de base, puis leur combinaison mécanique soit entre eux, soit avec des idées connexes. Raymond Lulle appliqua sa méthode à la métaphysique, puis à la morale, à la médecine et à l’astrologie. Mais il n’utilisait que la logique déductive, ce qui ne permettait pas à son système d’acquérir un apprentissage, ni davantage de remettre en cause ses principes de départ : seule la logique inductive le permet.

Gottfried Wilhelm Leibniz, au xviie siècle, a imaginé un calcul pensant (calculus rationator), en assignant un nombre à chaque concept. La manipulation de ces nombres aurait permis de résoudre les questions les plus difficiles, et même d’aboutir à un langage universel. Leibniz a toutefois démontré que l’une des principales difficultés de cette méthode, également rencontrée dans les travaux modernes sur l’intelligence artificielle, est l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idée de toutes les autres pour simplifier les problèmes liés à la pensée.
George Boole a inventé la formulation mathématique des processus fondamentaux du raisonnement, connue sous le nom d’algèbre de Boole. Il était conscient des liens de ses travaux avec les mécanismes de l’intelligence, comme le montre le titre de son principal ouvrage paru en 1854 : Les Lois de la pensée (The laws of thought), sur l’algèbre booléenne.
Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant des variables non logiques, n’ayant en soi aucun degré de vérité (maison, propriétaire). Cette formalisation eut une grande importance puisqu'elle permit de démontrer des théorèmes généraux, simplement en appliquant des règles typographiques à des ensembles de symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à appliquer. Par ailleurs, l’utilisateur joue un rôle important puisqu'il connaît le sens des symboles qu’il a inventés et ce sens n'est pas toujours formalisé, ce qui ramène au problème de la signification en intelligence artificielle, et de la subjectivité des utilisateurs.

Bertrand Russell et Alfred North Whitehead publièrent au début du xxe siècle un ouvrage intitulé Principia mathematica, dans lequel ils résolvent des contradictions internes à la théorie de Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une formalisation complète des mathématiques.
Kurt Gödel démontre au contraire que les mathématiques resteront une construction ouverte, en publiant en 1931 un article intitulé « Des propositions formellement indécidables contenues dans les Principia mathematica et autres systèmes similaires ». Sa démonstration est qu’à partir d’une certaine complexité d’un système, on peut y créer plus de propositions logiques qu’on ne peut en démontrer vraies ou fausses. L’arithmétique, par exemple, ne peut trancher par ses axiomes si on doit accepter des nombres dont le carré soit -1. Ce choix reste arbitraire et n’est en rien lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les précédents, au fur et à mesure qu’on en aura besoin. Si l'arithmétique est démontrée incomplète, le calcul des prédicats (logique formelle) est au contraire démontré par Gödel comme complet.

Alan Turing invente des machines abstraites et universelles (rebaptisées les machines de Turing), dont les ordinateurs modernes sont considérés comme des concrétisations. Il démontre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage, dans les cas qu'il cite), sans pour autant que cela constitue pour Turing un motif pour douter de la faisabilité de machines pensantes répondant aux critères du test de Turing.
Irving John Good, Myron Tribus et E.T. Jaynes ont décrit de façon très claire les principes assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes. Ils n’ont malheureusement pas traité la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc propre à résoudre quelques problèmes ouverts.
Robot à logique inductive.
Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la catégorisation des problèmes selon des classes de difficulté (en rapport avec les travaux de Cantor sur l’infini)
Faits marquants depuis les années 2000


L'intelligence artificielle est un sujet d'actualité au xxie siècle. En 2004, l'Institut Singularity a lancé une campagne Internet appelée « Trois lois dangereuses » : « Three Laws Unsafe » (en lien avec les trois lois d'Asimov) pour sensibiliser aux questions de la problématique de l'intelligence artificielle et l'insuffisance des lois d'Asimov en particulier. (Singularity Institute for Artificial Intelligence 2004).

En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau des mammifères. Il s'agit d'une des méthodes envisagées pour réaliser une IA. Ils annoncent de plus comme objectif de fabriquer, dans dix ans, le premier « vrai » cerveau électronique. En mars 2007, le gouvernement sud-coréen a annoncé que plus tard dans l'année, il émettrait une charte sur l'éthique des robots, afin de fixer des normes pour les utilisateurs et les fabricants. Selon Park Hye-Young, du ministère de l'Information et de la communication, la Charte reflète les trois lois d'Asimov : la tentative de définition des règles de base pour le développement futur de la robotique. En juillet 2009, en Californie une conférence organisée par l'Association for the Advancement of Artificial Intelligence (AAAI), où un groupe
d'informaticiens se demande s'il devrait y avoir des limites sur la recherche qui pourrait conduire à la perte de l'emprise humaine sur les systèmes informatiques, et où il est également question de l'explosion de l'intelligence (artificielle) et du danger de la singularité technologique conduisant à un changement d'ère, ou de paradigme totalement en dehors du contrôle humain.

En 2009, le Massachusetts Institute of Technology (MIT) a lancé un projet visant à repenser la recherche en intelligence artificielle. Il réunira des scientifiques qui ont eu du succès dans des domaines distincts de l'IA. Neil Gershenfeld déclare « Nous voulons essentiellement revenir 30 ans en arrière, et de revoir quelques directions aujourd'hui gelées »
En novembre 2009, l'US Air Force cherche à acquérir 2 200 PlayStation 3 pour utiliser le processeur cell à 7 ou 8 cœurs qu'elle contient dans le but d'augmenter les capacités de leur superordinateur constitué de 336 PlayStation 3 (total théorique 52,8 petaFLOPS en double précision). Le nombre sera réduit à 1 700 unités le 22 décembre 2009. Le projet vise le traitement vidéo haute-définition, et l'« informatique neuromorphique », ou la création de calculateurs avec des propriétés/fonctions similaires au cerveau humain.

Le 27 janvier 2010, l'US Air Force demande l'aide de l'industrie pour développer une intelligence avancée de collecte d'information et avec la capacité de décision rapide pour aider les forces américaines pour attaquer ses ennemis rapidement à leurs points les plus vulnérables. L'US Air Force utilisera une intelligence artificielle, le raisonnement ontologique, et les procédures informatique basées sur la connaissance, ainsi que d'autres traitements de données avancés afin de frapper l'ennemi au meilleur point. D'autre part, d’ici 2020, plus de mille bombardiers et chasseurs F-22 et F-35 de dernière génération, parmi plus de 2 500 avions militaires, commenceront à être équipés de sorte que, d’ici 2040, tous les avions de guerre américains soient pilotés par intelligence artificielle, en plus des 10 000 véhicules terrestres et des 7 000 dispositifs aériens commandés d'ores et déjà à distance

Le 16 février 2011, Watson, le superordinateur conçu par IBM, remporte deux des trois manches du jeu télévisé Jeopardy! en battant largement ses deux concurrents humains en gains cumulés. Pour cette IA, la performance a résidé dans le fait de répondre à des questions de culture générale (et non un domaine technique précis) dans des délais très courts. En février 2016, l'artiste et designer Aaron Siegel propose de faire de Watson un candidat à l'élection présidentielle américaine afin de lancer le débat sur « le potentiel de l’intelligence artificielle dans la politique ».

En mai 2013, Google ouvre un laboratoire de recherches dans les locaux de la NASA. Grâce à un super calculateur quantique conçu par D-Wave Systems et qui serait d'après cette société 11 000 fois plus performant qu'un ordinateur actuel (de 2013), ils espèrent ainsi faire progresser l'intelligence artificielle, notamment l'apprentissage automatique. Raymond Kurzweil est engagé en décembre 2012 par Google afin de participer et d'améliorer l'apprentissage automatique des machines et des IA
Entre 2014 et 2015, à la suite du développement rapide du deep learning, et à l'encontre des penseurs transhumanistes, quelques scientifiques et membres de la communauté high tech craignent que l'intelligence artificielle ne vienne à terme dépasser les performances de l'intelligence humaine. Parmi eux, l'astrophysicien britannique Stephen Hawking, le fondateur de Microsoft Bill Gates et le PDG de Tesla Elon Musk.

Les géants de l'Internet s'intéressent de plus en plus à l'IA. Le 3 janvier 2016, le patron de Facebook, Mark Zuckerberg, s’est donné pour objectif de l’année de « construire une intelligence artificielle simple pour piloter ma maison ou m’aider dans mon travail ». Il avait déjà créé en 2013 le laboratoire Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur français Yann Le Cun et ouvert un laboratoire de recherche permanente dans le domaine à Paris.

Apple a de son côté récemment acquis plusieurs start-up du secteur (Perceptio, VocalIQ, Emotient et Turi)
En janvier 2018, des modèles d'intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension de l'université Stanford. Le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet maintenant aux modèles d'apprentissage automatique de traiter de grandes quantités d'informations avant de fournir des réponses précises aux questions qui leur sont posées.

En février 2019, l'institut de recherche OpenAI annonce avoir créé un programme d’intelligence artificielle capable de générer des textes tellement réalistes que cette technologie pourrait être dangereuse. Si le logiciel est utilisé avec une intention malveillante, il peut générer facilement des fausses nouvelles très crédibles. Inquiet par l'utilisation qui pourrait en être faite, OpenAI préfère ne pas rendre public le code source du programme.

En France

En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis Laurière, Claude-François Picard, Jacques Pitrat et Jean-Claude Simon. Un congrès national annuel, « Reconnaissance de formes et intelligence artificielle », est créé en 1979 à Toulouse. En lien avec l'organisation de la conférence International Joint Conference on Artificial Intelligence à Chambéry en 1993, et la création d'un GRECO-PRC « intelligence artificielle », en 1983, il donne naissance à une société savante, l'Association française pour l'intelligence artificielle (AFIA) en 1989, qui, entre autres, organise des conférences nationales en intelligence artificielle.

Le 17 janvier 2017, le fonds de capital risque Serena Capital lance un fonds de 80 millions d’euros destiné à l’investissement dans les start-ups européennes du big data et de l'intelligence artificielle. Le 19 janvier 2017, une audition se tient au Sénat : « L'intelligence Artificielle menace-t-elle nos emplois ? ». Le 20 janvier 2017, Axelle Lemaire entend valoriser les potentiels scientifiques et industriels français grâce au projet « France IA ».

En janvier 2017, dans le cadre de sa mission de réflexion sur les enjeux éthiques et les questions de société soulevés par les technologies numériques, la Commission nationale de l'informatique et des libertés (CNIL) annonce l'organisation d'un débat public sur les algorithmes et l'intelligence artificielle. Le 15 décembre 2017, à l'issue d'un débat ayant mobilisé 60 partenaires (institutions publiques, associations, entreprises, acteurs du monde de la recherche, société civile), elle publie son rapport « Comment permettre à l'Homme de garder la main ? » comprenant des recommandations pour la construction d'un modèle éthique d'intelligence artificielle.

En septembre 2017, Cédric Villani, premier vice-président de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), est chargé de mener une consultation publique sur l'intelligence artificielle. Il rend son rapport le 28 mars 2018, à la veille d'une intervention du président de la République Emmanuel Macron au Collège de France pour annoncer la stratégie de la France dans ce domaine. Il y dévoile un plan de 1,5 milliard d'euros sur l'ensemble du quinquennat, ainsi qu'une évolution de la législation française pour permettre la mise en application de l'intelligence artificielle, en particulier concernant la circulation des véhicules autonomes. Parallèlement à ces annonces, il est interviewé par Wired, magazine de référence pour la communauté mondiale des nouvelles technologies, et y exprime sa vision de l'intelligence artificielle, à savoir que les algorithmes utilisés par l'État doivent être ouverts, que l'intelligence artificielle doit être encadrée par des règles philosophiques et éthiques et qu'il faut s'opposer à l'usage d'armes automatiques ou de dispositifs prenant des décisions sans consulter un humain
En mars 2018, Microsoft France lance l'École IA Microsoft, inaugurée par son président Carlo Purassanta, une formation ouverte aux décrocheurs scolaires et aux personnes éloignées de l'emploi, en partenariat avec Simplon.co. Dix écoles sont lancées en un an à partir de septembre 2018. Microsoft France mise sur le développement de l'intelligence artificielle comme nouveau vecteur d'inclusion professionnelle

En octobre 2019, le site ActuIA annonce le lancement du premier magazine papier consacré à l'intelligence artificielle.


Votre commentaire





Commentaires


Dich   04/04/2021 à 19:15:08
1. MODELE ITERATIF Avantages du modèle itératif : Ce type de cycle de développement est le plus souple de tous ceux présentés ici : chaque itération permet de s’adapter à ce qui a été appris dans les itérations précédentes et le projet fini peut varier du besoin qui a été exprimé à l’origine. Comme dans le cycle en spirale, la mise à disposition de livrables à chaque cycle permet un apprentissage de l’utilisateur final en douceur. Inconvénients du modèle itératif : A mes yeux le plus gros piège de ce modèle de développement c’est la confiance qui amène bien souvent à négliger les test d’intégration. Ainsi les développeurs livrent une nouvelle fonctionnalité sans se rendre compte qu’ils ont cassé une chose qui fonctionnait dans les cycles précédents. Il faut donc que le chef de projet soit particulièrement vigilant lors de la phase de test. 22. Modèle en W 25. Avantages de Modèle en W ▪ Dans le modèle W l'importance des tests et l'ordre des activités pour les tests sont clairs . Parallèlement au processus de développement , dans un sens plus strict , un autre processus - le processus de test - est effectuée . Ce n'est pas la première a commencé après le développement est terminé . ▪ La division stricte entre les tâches constructives sur le côté gauche et les tâches les plus destructeurs sur le côté droit qui existe dans le modèle en V est abolie . Dans le modèle W , il est clair qu'une telle division entre les tâches n'est pas raisonnable et que la coopération plus étroite entre les activités de développement et de test doit exister. Dès le début du projet et suivants les testeurs et les développeurs sont chargés de missions et sont considérés comme un partenariat d'égalité des droits . Au cours de la phase de test, le développeur est responsable de l'élimination des défauts et la correction de la mise en œuvre . La collaboration précoce et la coopération étroite entre les deux groupes peuvent souvent en pratique éviter les réunions de conflit . ▪ Le modèle W se rapproche de la pratique où les dépenses d'essai est donnée à 40% et plus . Le modèle met clairement en évidence le fait que le test est plus que juste la construction , l'exécution et l'évaluation des cas de test. 25. Avantages de Modèle en W ▪ Dans le modèle W l'importance des tests et l'ordre des activités pour les tests sont clairs . Parallèlement au processus de développement , dans un sens plus strict , un autre processus - le processus de test - est effectuée . Ce n'est pas la première a commencé après le développement est terminé . ▪ La division stricte entre les tâches constructives sur le côté gauche et les tâches les plus destructeurs sur le côté droit qui existe dans le modèle en V est abolie . Dans le modèle W , il est clair qu'une telle division entre les tâches n'est pas raisonnable et que la coopération plus étroite entre les activités de développement et de test doit exister. Dès le début du projet et suivants les testeurs et les développeurs sont chargés de missions et sont considérés comme un partenariat d'égalité des droits . Au cours de la phase de test, le développeur est responsable de l'élimination des défauts et la correction de la mise en œuvre . La collaboration précoce et la coopération étroite entre les deux groupes peuvent souvent en pratique éviter les réunions de conflit . ▪ Le modèle W se rapproche de la pratique où les dépenses d'essai est donnée à 40% et plus . Le modèle met clairement en évidence le fait que le test est plus que juste la construction , l'exécution et l'évaluation des cas de test. 26. Inconvénient de Modèle en W ▪ Modèle simplifié la réalité des faits. En pratique, il existe plusieurs relations entre les différentes parties d'un processus de développement. Cependant, il est nécessaire pour un modèle simple si toutes les personnes impliquées dans un projet de les accepter. C'est aussi une raison pour laquelle le V-modèle simple si souvent utilisé dans la pratique. ▪ Les modèles de développement de logiciels présentées ne précisent pas les dépenses nécessaires pour les ressources qui doivent être affectées aux activités individuelles. Toujours dans le W-modèle, il semble que les différentes activités ont une exigence égale pour les ressources (temps, personnel, etc ) Dans la pratique, ce n'est certainement pas le cas. Dans chaque projet aspects les plus importants peuvent varier et ainsi donc l'allocation des ressources est peu susceptible d'être égale dans toutes les activités. Pour les applications très critiques les activités de test ont certainement pondération supérieure ou au moins égale pondération avec d'autres activités.

Moïse   04/04/2020 à 01:23:38
Très bon article interessant...je trouve

John Carles   07/03/2020 à 04:48:07
C'est un [b]article[/b] intéressant je trouve...