Lorsque vous parcourez l'internet de nos jours, il est fort probable que vous trouviez des éléments d'IA sous toutes leurs formes et dans tous les sens.
Il ne s'agit plus d'un film de science-fiction.
De la fonction d'autocorrection de votre téléphone aux recommandations de Netflix, en passant par l'onglet ChatGPT ouvert en ce moment même, tout cela n'est pas apparu du jour au lendemain comme une sensation virale sur TikTok : cela existe et évolue sous nos yeux.
Il est étonnant de voir à quel point nous sommes passés de "et si les machines étaient capables de penser" à "ChatGPT, présente-moi une stratégie commerciale d'un an".
Tout au long de son développement, l'IA a connu de nombreux échecs et percées et a produit de nombreux penseurs brillants.
Dans ce billet, nous ne nous contenterons pas d'évoquer des souvenirs, mais nous découvrirons également comment l'IA est devenue un élément de la conversation quotidienne.
Alerte au spoiler : cela implique bien plus d'anxiété mathématique et de peur existentielle que vous ne l'imaginez.
Principaux enseignements
- La recherche sur l'IA a débuté dans les années 1940 avec les premiers pionniers de l'informatique qui rêvaient de machines pensantes.
- Le domaine a été officiellement lancé en 1956 lors de la conférence de Dartmouth, où le terme "intelligence artificielle" a été inventé.
- L'IA a connu plusieurs "hivers" au cours desquels les financements se sont taris et les projecteurs se sont éteints.
- Les percées modernes en matière d'IA sont le fruit de la combinaison d'ensembles de données massives et d'ordinateurs puissants.
- L'IA générative d'aujourd'hui représente le dernier chapitre d'une histoire de 70 ans d'ambition humaine.
Comment l'IA est passée de la théorie à la réalité
Pensez à l'histoire de l'IA comme à la carrière de votre groupe préféré.
Cela a commencé avec les années underground, lorsque seuls les vrais fans y prêtaient attention.
C'est alors qu'est intervenue la percée du grand public que tout le monde prétend avoir vu venir.
Ne vous inquiétez plus jamais de la détection de vos messages par l'IA. Undetectable AI peut vous aider :
- Faites apparaître votre écriture assistée par l'IA à l'image de l'homme.
- By-pass tous les principaux outils de détection de l'IA en un seul clic.
- Utilisation AI en toute sécurité et en toute confiance à l'école et au travail.
Quelques flops et retours plus tard, ils sont soudain partout, et tes parents te posent des questions à leur sujet.
L'IA a suivi exactement la même trajectoire. Les premiers chercheurs n'essayaient pas de construire ChatGPT.
Ils posaient des questions fondamentales : Les machines peuvent-elles penser ? Peuvent-elles apprendre ? Peuvent-elles résoudre des problèmes comme le font les humains ?
La réponse s'est avérée être "en quelque sorte, mais c'est compliqué".
Origines de l'IA (avant les années 1950)
Avant d'avoir des ordinateurs, nous avions des rêveurs. Les mythes anciens racontaient des histoires d'êtres artificiels ayant pris vie.
La mythologie grecque nous a donné Talos, le géant de bronze qui protégeait la Crète. Le folklore juif a connu les golems, créatures d'argile animées par des paroles mystiques.
Mais la véritable histoire de l'IA commence pendant la Seconde Guerre mondiale avec Alan Turing. Turing décryptait les codes nazis et jetait les bases de l'informatique moderne. On peut parler de multitâche.
En 1936, Turing a introduit le concept de machine à calculer universelle.
Cet appareil théorique pourrait effectuer n'importe quel calcul si on lui donnait les bonnes instructions.
Cela semble un peu ennuyeux jusqu'à ce que vous réalisiez que cette idée est devenue la base de tous les ordinateurs que vous avez jamais utilisés, y compris celui sur lequel vous lisez cet article.
La guerre a tout accéléré et a créé une besoin pour l'innovation. Soudain, les gouvernements ont consacré leurs budgets à toute technologie susceptible de leur donner une longueur d'avance.
Les premiers ordinateurs électroniques sont nés de cet environnement sous pression.
Des machines comme l'ENIAC remplissaient des salles entières et nécessitaient des équipes d'ingénieurs pour fonctionner, mais elles pouvaient calculer en quelques secondes ce qui prenait des heures aux humains.
À la fin des années 1940, les chercheurs ont commencé à se poser la question suivante : si ces machines peuvent calculer, peuvent-elles penser ?
1950s : La naissance de l'intelligence artificielle
L'année 1956 a été le moment le plus marquant de l'IA. Un groupe de chercheurs se réunit au Dartmouth College, dans le New Hampshire, pour un atelier d'été qui va tout changer.
John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon se sont enfermés dans une pièce et ont décidé de créer des machines pensantes.
Ils a inventé le terme "intelligence artificielle" et a établi une feuille de route ambitieuse.
Ces chercheurs pensaient qu'en l'espace d'une génération, les machines seraient capables de résoudre n'importe quel problème que les humains pourraient résoudre.
En fin de compte, ils se sont trompés de plusieurs décennies, mais leur confiance était admirable.
La conférence de Dartmouth a fait de l'IA un domaine d'étude légitime.
Soudain, les universités ont créé des laboratoires d'IA, les gouvernements ont signé des chèques et les chercheurs ont fait des prédictions audacieuses sur l'avenir.
Alan Turing leur avait déjà donné une longueur d'avance avec son célèbre test.
Le test de Turing posait une question simple : si vous avez une conversation avec quelque chose et que vous ne pouvez pas dire s'il s'agit d'un humain ou d'une machine, est-ce que cela a de l'importance ?
C'est la philosophie ultime du "fake it till you make it", et elle est toujours d'actualité.
Années 1960-1970 : Optimisme précoce et premiers modèles
Les années 1960 ont commencé avec un élan incroyable. Les chercheurs disposaient de fonds, de l'attention des médias et d'une mission claire. Qu'est-ce qui pourrait mal tourner ?
Tout, en fin de compte.
Les premiers programmes d'IA fonctionnaient bien dans des environnements contrôlés, mais s'effondraient lorsqu'ils étaient confrontés à la complexité du monde réel.
C'est comme si vous étiez génial pour jouer au basket-ball dans votre allée, mais que vous perdiez complètement vos moyens pendant un vrai match.
ELIZAcréé par Joseph Weizenbaum en 1964, pouvait tenir des conversations en reconnaissant des mots-clés et en répondant par des phrases préprogrammées.
Il s'agissait d'une version plus sophistiquée du jouet Magic 8-Ball, et les gens l'adoraient.
ELIZA fonctionne par analogie et substitution. Si vous lui dites "Je suis triste", il peut répondre par "Pourquoi es-tu triste ?".
Il était simple, mais suffisamment efficace pour faire croire à certains utilisateurs qu'ils parlaient à un vrai thérapeute. Weizenbaum a été horrifié lorsque les gens ont commencé à s'attacher émotionnellement à son programme.
IA indétectables Demander à l'IA fonctionne dans la même veine. Vous pouvez l'utiliser pour simuler ou expliquer le fonctionnement des premiers modèles d'IA comme ELIZA par rapport aux modèles de langage modernes.
Cependant, la différence est stupéfiante. ELIZA jouait à l'association de mots, alors que l'IA d'aujourd'hui est capable de comprendre le contexte et de générer des réponses cohérentes.
Pendant ce temps, les chercheurs s'attaquent à des projets plus ambitieux. SHRDLU de Terry Winograd pouvait comprendre et manipuler des objets dans un monde virtuel fait de blocs.
Il peut suivre des instructions complexes telles que "Placez le bloc rouge sur le bloc vert, mais écartez d'abord le bloc bleu".
SHRDLU était impressionnant, mais il ne fonctionnait que dans son petit monde de blocs. Si vous essayez de l'étendre au monde réel, il se plantera plus facilement que votre ordinateur portable pendant la semaine des examens.
Le problème n'était pas seulement technique. Les chercheurs ont découvert que l'intelligence est bien plus complexe qu'ils ne le pensaient.
Des choses que les humains font sans effort, comme reconnaître un visage ou comprendre le sarcasme, se sont révélées incroyablement difficiles pour les machines.
1980s : Les systèmes experts et l'IA commerciale
Alors que tout le monde pensait que l'IA était morte, elle est revenue en force. Les années 1980 ont vu l'avènement des systèmes experts et, soudain, l'IA a commencé à rapporter beaucoup d'argent.
Les systèmes experts étaient différents des approches antérieures de l'IA. Au lieu d'essayer de reproduire l'intelligence générale, ils se sont concentrés sur des domaines spécifiques dans lesquels les experts humains possédaient des connaissances approfondies.
Considérez-les comme des consultants très intelligents et très spécialisés.
- MYCIN infections sanguines diagnostiquées.
- DENDRAL les composés chimiques identifiés.
- XCON des systèmes informatiques configurés.
Ces programmes capturent les connaissances des experts humains et les mettent à la disposition d'autres personnes.
L'idée clé était qu'il n'était pas nécessaire d'être doté d'une intelligence générale pour être utile.
Il suffisait d'être vraiment bon dans un domaine. C'est comme cette personne qui connaît tout des films Marvel mais qui ne se souvient pas où elle a laissé ses clés.
Les entreprises ont commencé à s'intéresser à la question. Les systèmes experts pouvaient résoudre des problèmes réels et faire économiser de l'argent. Diagnostic médical, planification financière, dépannage d'équipement : l'intelligence artificielle n'était plus une simple curiosité académique.
Le gouvernement japonais a lancé la Projet d'ordinateur de cinquième générationL'Union européenne, qui prévoit de créer des ordinateurs intelligents d'ici les années 1990, est en train d'élaborer un plan d'action pour l'IA. D'autres pays ont paniqué et ont lancé leurs propres initiatives en matière d'IA.
La course à l'espace était terminée, alors pourquoi ne pas avoir une course à l'IA à la place ?
Les systèmes experts avaient cependant des limites. Ils nécessitaient une ingénierie des connaissances poussée, en codant manuellement l'expertise humaine en règles lisibles par l'ordinateur.
C'était comme essayer d'apprendre à quelqu'un à faire du vélo en écrivant tous les scénarios possibles qu'il pourrait rencontrer.
1990s : L'IA se généralise (discrètement)
Les années 1990 ont été l'adolescence difficile de l'IA. Le domaine était en pleine mutation, cherchait son identité et ne parlait absolument pas de ses sentiments.
Le boom des systèmes experts s'est essoufflé. Ces systèmes étaient coûteux à entretenir et ne pouvaient pas s'adapter à de nouvelles situations. Les entreprises ont commencé à chercher des alternatives.
Mais l'IA n'a pas disparu. Elle a simplement cessé de s'appeler elle-même "IA".
Les techniques d'apprentissage automatique qui avaient germé dans les laboratoires universitaires ont commencé à trouver des applications pratiques.
L'IA était omniprésente sous la forme de filtres anti-spam, de détection des fraudes à la carte de crédit et de systèmes de recommandation, mais personne ne s'en vantait.
Il s'agissait d'un marketing intelligent. Le terme "intelligence artificielle" portait trop de traces des cycles précédents. Il était préférable de parler d'"analyse statistique", de "reconnaissance des formes" ou de "systèmes d'aide à la décision".
La véritable avancée est venue d'un changement d'approche.
Et personne n'a parlé d'IA. Cela aurait été trop évident.
2000s : Les fondements de l'IA moderne
Les années 2000 ont jeté les bases de tout ce qui se passe aujourd'hui dans le domaine de l'IA.
C'est comme le montage d'entraînement dans un film sportif, sauf qu'il a duré une décennie et qu'il a impliqué beaucoup plus de mathématiques.
Plusieurs facteurs ont convergé pour créer les conditions parfaites pour l'avancement de l'IA. La puissance de calcul devenait de moins en moins chère et de plus en plus puissante.
L'internet avait créé d'énormes ensembles de données. Et les chercheurs ont compris comment entraîner efficacement les réseaux neuronaux.
Pendant ce temps, les entreprises technologiques intégrer l'IA dans tous les domaines.
L'algorithme de recherche de Google utilise l'apprentissage automatique pour classer les pages web. Le moteur de recommandation d'Amazon a généré des milliards de ventes. L'algorithme du fil d'actualité de Facebook détermine ce que des millions de personnes voient chaque jour.
L'iPhone a été lancé en 2007, mettant de puissants ordinateurs dans la poche de chacun et générant des quantités sans précédent de données personnelles.
Chaque touche, chaque glissement et chaque recherche est devenu un point de données permettant de former de meilleurs systèmes d'intelligence artificielle.
À la fin de la décennie, l'IA était intégrée dans l'infrastructure numérique de la vie moderne.
La plupart des gens ne s'en rendent pas compte, mais ils interagissent avec des systèmes d'IA des dizaines de fois par jour.
2010s : Apprentissage profond et Big Data
C'est dans les années 2010 que l'IA est passée du statut de "truc technique sympa" à celui de "putain de merde, ça change tout".
L'apprentissage profond a démarré la décennie en fanfare. En 2012, un réseau neuronal appelé AlexNet a écrasé la concurrence lors d'un concours de reconnaissance d'images.
Il n'était pas seulement meilleur que les autres systèmes d'IA, il était meilleur que les experts humains.
Cela ne devait pas encore se produire.
Les ingrédients secrets étaient des ensembles de données plus importants, des ordinateurs plus puissants et de meilleures techniques de formation.
Les unités de traitement graphique (GPU), conçues à l'origine pour les jeux vidéo, se sont révélées parfaites pour l'entraînement des réseaux neuronaux. Les joueurs ont accidentellement créé le matériel qui allait alimenter la révolution de l'IA.
Les médias n'en ont jamais eu assez. Chaque percée de l'IA a fait la une des journaux. Deep Blue bat Kasparov aux échecs dans les années 1990 était impressionnante, mais la victoire d'AlphaGo sur le champion du monde de go en 2016 était époustouflante.
Le jeu de go était censé être trop complexe pour être maîtrisé par les ordinateurs.
Ces technologies avancées vous dépassent ? Les outils modernes d'IA comme l'IA indétectable Chat sur l'IA peut expliquer des concepts d'IA complexes tels que les réseaux neuronaux convolutifs ou l'apprentissage par renforcement à des publics non techniques.
Les mêmes techniques d'apprentissage profond qui alimentent la reconnaissance d'images alimentent également les modèles linguistiques d'aujourd'hui.
Les véhicules autonomes ont captivé l'imagination de tous. Les voitures autonomes sont passées du stade de la science-fiction à celui de "l'année prochaine" (une promesse qui est toujours faite, mais avec plus de prudence aujourd'hui).
Les assistants virtuels sont devenus monnaie courante. Siri, Alexa et Google Assistant ont fait entrer l'IA dans des millions de foyers.
Tout le monde a désormais des conversations avec son appareil, même si ces conversations se résument à "écouter ma musique" et "quel temps fait-il ?".
La décennie s'est terminée par l'émergence d'architectures de transformateurs et de mécanismes d'attention.
Ces innovations allaient s'avérer cruciales pour la prochaine phase de développement de l'IA, même si la plupart des gens n'en avaient jamais entendu parler.
2020s : L'IA générative et les grands modèles linguistiques
Les années 2020 ont commencé par une pandémie, mais les chercheurs en IA étaient trop occupés à changer le monde pour s'en rendre compte.
Les modèles GPT de l'OpenAI sont passés de projets de recherche intéressants à des phénomènes culturels. Le modèle GPT-3 a été lancé en 2020 et a époustouflé tout le monde par sa capacité à rédiger un texte cohérent sur presque n'importe quel sujet.
Dans ce cas Le ChatGPT a vu le jour fin 2022 et a révolutionné l'internet. En quelques jours, des millions de personnes ont eu des conversations avec l'IA pour la première fois.
Les étudiants l'utilisaient pour leurs devoirs. Les travailleurs automatisent une partie de leur travail. Les créateurs de contenu génèrent des idées plus rapidement que jamais.
La réaction a été immédiate et intense. Certains ont été stupéfaits. D'autres étaient terrifiés. La plupart se situaient entre les deux, essayant de comprendre ce que cela signifiait pour leur carrière et l'avenir de leurs enfants.
L'IA générative est devenue la plus grande histoire technologique depuis l'iPhone.
Toutes les entreprises ont commencé à ajouter des fonctions d'IA. Toutes les startups ont affirmé qu'elles étaient "alimentées par l'IA".
Chaque conférence comportait au moins douze panels sur l'avenir de l'intelligence artificielle.
C'est là que des outils tels que Undetectable AI's Rédacteur AI SEO, Rédacteur de dissertations sur l'IAet AI Humanizer s'intègrent dans l'histoire.
Ces applications modernes représentent l'évolution pratique de la technologie de l'IA générative. Elles utilisent les mêmes modèles sous-jacents que ChatGPT et les appliquent à des cas d'utilisation spécifiques.
La génération d'images a suivi une trajectoire similaire. DALL-E, Midjourney et Stable Diffusion pourraient être des exemples d'applications de la technologie de l'information. créer des images photoréalistes à partir de textes descriptions. Les artistes étaient à la fois enthousiastes et inquiets.
La technologie s'est améliorée à une vitesse fulgurante. Les modèles sont devenus plus grands, plus intelligents et plus performants. Le GPT-4 pouvait passer des examens professionnels et écrire du code.
Claude pouvait avoir des conversations nuancées sur des sujets complexes. Bard peut effectuer des recherches sur le web et fournir des informations actualisées.
Les grandes étapes de l'histoire de l'IA
Certains moments de l'histoire de l'IA méritent une reconnaissance particulière.
Il ne s'agit pas seulement de réalisations techniques, mais de tournants culturels qui ont changé notre façon d'envisager l'intelligence artificielle.
- La conférence de Dartmouth (1956) a officiellement lancé le domaine et donné son nom à l'IA. Sans cette conférence, nous pourrions parler d'"intelligence artificielle", de "pensée computationnelle" ou de quelque chose d'aussi ennuyeux.
- La victoire de Deep Blue sur Garry Kasparov aux échecs (1997) a été le premier moment fort de l'IA. Des millions de personnes ont vu un ordinateur surpasser l'un des plus grands stratèges de l'humanité. L'avenir semblait soudain très réel et légèrement effrayant.
- IBM Watson gagne à Jeopardy ! (2011) a montré que l'IA pouvait gérer le langage naturel et les connaissances générales. Regarder un ordinateur réussir le Daily Double était à la fois impressionnant et troublant.
- AlphaGo battant Lee Sedol au jeu de Go (2016) était un chef-d'œuvre technique. Le jeu de go compte plus de positions possibles que d'atomes dans l'univers observable. Pourtant, le système de DeepMind a trouvé des stratégies gagnantes que les experts humains n'avaient jamais envisagées.
- La percée d'ImageNet (2012) a donné le coup d'envoi de la révolution de l'apprentissage profond. La victoire d'AlexNet au concours de reconnaissance d'images a prouvé que les réseaux neuronaux étaient prêts pour le "prime time".
- La publication de GPT-3 (2020) a démocratisé la génération de contenu d'IA. Soudain, tout le monde pouvait accéder à des modèles linguistiques puissants par le biais d'interfaces web simples.
- Le lancement de ChatGPT (2022) a mis l'IA à la portée de tous. En l'espace de deux mois, elle comptait 100 millions d'utilisateurs, ce qui en fait l'application grand public à la croissance la plus rapide de l'histoire.
Chaque étape s'est appuyée sur les travaux précédents tout en ouvrant de nouvelles possibilités.
C'est ainsi que fonctionne le progrès : des améliorations graduelles ponctuées par des moments de rupture qui amènent tout le monde à reconsidérer ce qui est possible.
Les hivers de l'IA et les retours en arrière
L'histoire de l'IA n'est pas une ligne droite de progrès. Elle ressemble plutôt à des montagnes russes conçues par quelqu'un qui a des problèmes d'engagement.
Le domaine a connu plusieurs "hivers de l'IA", périodes au cours desquelles les financements se sont taris, les chercheurs ont changé de domaine et les médias ont déclaré que l'IA était morte.
Il ne s'agissait pas de simples revers, mais de crises existentielles qui ont failli mettre fin à la recherche sur l'IA.
Quelle est l'origine des hivers de l'IA ?
Le premier hiver de l'IA a frappé au milieu des années 1970. Les premiers chercheurs avaient fait des prédictions audacieuses sur l'obtention d'une intelligence de niveau humain en quelques décennies. Lorsque ces prévisions ne se sont pas concrétisées, la déception s'est installée.
Les agences gouvernementales de financement ont commencé à poser des questions embarrassantes. Où étaient les machines à penser qu'on leur avait promises ?
Pourquoi les systèmes d'IA étaient-ils encore si limités ? Que font exactement les chercheurs avec tout cet argent ?
Le gouvernement britannique a commandé l'étude Rapport Lighthill en 1973qui estime que la recherche sur l'IA est surestimée et qu'elle ne donne pas les résultats escomptés.
Le financement a été considérablement réduit. Des études similaires menées dans d'autres pays ont abouti à des conclusions analogues.
Le deuxième hiver de l'IA est arrivé à la fin des années 1980, après l'éclatement de la bulle des systèmes experts. Les entreprises avaient investi massivement dans la technologie de l'IA, mais avaient du mal à la maintenir et à la développer.
Le marché s'est effondré, entraînant avec lui de nombreuses start-ups spécialisées dans l'IA.
Les deux hivers ont été marqués par des thèmes communs. Des attentes irréalistes ont conduit à des promesses démesurées. Lorsque la réalité n'a pas été à la hauteur du battage médiatique, le retour de bâton était inévitable.
Les chercheurs ont tiré des leçons précieuses sur la gestion des attentes et la concentration sur les applications pratiques.
L'avenir de l'IA : que nous réserve l'avenir ?
Prédire l'avenir de l'IA, c'est comme essayer de prévoir la météo à l'aide d'une boule magique. C'est possible, mais votre taux de précision n'impressionnera probablement personne.
Néanmoins, certaines tendances semblent devoir se poursuivre. Les systèmes d'IA deviendront plus performants, plus efficaces et plus intégrés dans la vie quotidienne.
La question n'est pas de savoir si l'IA va devenir plus puissante, mais comment la société va s'adapter à cette puissance.
- L'IA générative va probablement s'améliorer dans la création de contenus qui ne se distinguent pas du travail humain. Les artistes, les écrivains et les créateurs de contenu devront trouver le moyen de concurrencer les systèmes d'IA ou de collaborer avec eux.
- Les systèmes autonomes vont se généraliser. Les voitures auto-conduites pourraient enfin tenir leurs promesses. Les drones de livraison pourraient envahir le ciel. Des robots pourraient effectuer des tâches dangereuses ou répétitives.
- La recherche sur la sécurité de l'IA deviendra de plus en plus importante à mesure que les systèmes deviendront plus puissants. Nous aurons besoin de meilleurs moyens pour garantir que les systèmes d'IA se comportent comme prévu et ne causent pas de dommages involontaires.
- Les implications économiques sont stupéfiantes. Certains emplois vont disparaître. De nouveaux emplois verront le jour. La transition pourrait se faire en douceur ou de manière chaotique, en fonction de notre degré de préparation.
- La réglementation jouera un rôle plus important. Les gouvernements travaillent déjà sur des cadres de gouvernance de l'IA. Le défi consiste à créer des règles qui protègent les personnes sans étouffer l'innovation.
- La démocratisation de l'IA va se poursuivre. Des outils qui nécessitaient autrefois une expertise de niveau doctoral deviennent accessibles à tous. Cela pourrait déboucher sur une créativité et une innovation extraordinaires, ou créer de nouveaux problèmes que nous n'avons pas encore anticipés.
Vous trouverez d'autres outils utiles ici, ou essayez notre AI Detector et Humanizer dans le widget ci-dessous !
Cette histoire s'écrit d'elle-même... presque
L'histoire de l'IA témoigne de l'ambition humaine, qui transforme des rêves impossibles en réalité.
Des théories de Turing aux modèles génératifs d'aujourd'hui, le progrès est venu de la persévérance dans la résolution de problèmes insolubles.
Chaque époque s'est révélée révolutionnaire, mais le rythme rapide et l'ampleur de la situation actuelle sont sans précédent.
L'IA est le fruit de décennies de travail de la part d'esprits brillants. L'histoire est loin d'être terminée. La prochaine percée pourrait venir de n'importe où, et son impact dépendra des choix que nous faisons aujourd'hui.
Nous avons imaginé des esprits artificiels pendant des millénaires, et aujourd'hui nous les construisons.
Avec des IA indétectables Rédacteur AI SEO, Chat sur l'IA, Rédacteur de dissertations sur l'IAet AI HumanizerVous pouvez ainsi créer un contenu de haute qualité, à la sonorité naturelle, optimisé, attrayant et qui vous est propre.
Essayer IA indétectable et faites passer votre écriture alimentée par l'IA au niveau supérieur.