Skip links

Quand l’IA est-elle devenue populaire ? Des laboratoires au grand public

Essayez notre incroyable IA gratuitement

Nation AI
Votre demande...

On a l’impression que les algorithmes ont pris le pouvoir hier, mais la question de savoir quand l’IA est devenue populaire révèle une histoire qui remonte à bien plus loin que le dernier chatbot viral. Nous suivons le chemin cahoteux des premiers échecs théoriques jusqu’à l’explosion des données massives qui a finalement rendu les machines vraiment utiles pour les masses. Vous serez peut-être surpris d’apprendre combien d' »hivers » technologiques cette innovation a survécu avant de devenir la force indéniable qui façonne actuellement votre routine quotidienne.

La lenteur de la combustion : la longue histoire silencieuse de l’IA

Chronologie infographique de l'histoire de l'intelligence artificielle, des mythes anciens à l'informatique moderne

Le rêve des machines à penser

Les Grecs de l’Antiquité et les alchimistes médiévaux étaient obsédés par cette matière bien avant que le silicium n’existe. Des robots d’or d’Héphaïstos au Golem, nous avons toujours eu ce complexe de « jouer à Dieu ». Ce n’était pas encore de la science, juste un souhait très ancien et très humain.

Puis Alan Turing a changé la donne en posant une question simple et terrifiante : les machines peuvent-elles penser? Son « jeu de l’imitation » nous a fait passer de la magie aux mathématiques.

Mais pendant longtemps, il ne s’agissait que d’un discours de mathématiciens à l’occasion d’un dîner. Aucun impact sur le monde réel. Si vous demandiez à une personne ordinaire quand l’IA est devenue populaire à l’époque, elle vous regarderait d’un air absent. Ce n’était que de la théorie.

Le label « IA » est né

Été 1956. Une poignée de génies se réunit au Dartmouth College et invente officiellement le terme « intelligence artificielle ». John McCarthy et son équipe ne se sont pas contentés de donner un nom à un domaine ; ils ont lancé une croisade pour simuler tous les aspects de l’intelligence humaine.

L’ambiance ? Une arrogance pure et simple. Ils croyaient sincèrement pouvoir résoudre le problème de la « machine à penser » en une seule génération. L’argent a afflué et les attentes ont explosé.

Si vous voulez connaître tous les détails de ces débuts sauvages, consultez le site suivant Quand l’IA a-t-elle été inventée ? La chronologie définitive pour les premiers jours de l’IA.

Le premier hiver de l’IA : Un retour à la réalité

La réalité frappe durement. Ces grandes promesses se sont heurtées à un mur d’incompétence technologique. Les ordinateurs étaient trop lents et les problèmes – comme la traduction – étaient bien plus difficiles à résoudre qu’on ne l’admettait.

Les investisseurs se sont sentis floués. Le financement a disparu du jour au lendemain, déclenchant le fameux « hiver de l’IA ». L’IA est devenue un gros mot dans les laboratoires de recherche. Vous ne pouviez pas obtenir de subvention pour sauver votre vie.

L’IA s’est donc retirée dans l’ombre. Elle est devenue une obsession de niche pour des chercheurs obstinés, totalement invisible aux yeux du public.

Les premiers chatbots et leurs limites

Nous avions des trucs, comme ELIZA dans les années 60. On avait l’impression d’avoir affaire à un thérapeute, mais ce n’était qu’un tour de passe-passe qui vous renvoyait vos paroles en miroir. Pas de cerveau, juste un script.

Il a prouvé que nous pouvions faire semblant de parler, mais que nous comprenions vraiment ? Nous en sommes loin. C’était une coquille vide fascinante. Pour en savoir plus sur ce thérapeute numérique, lisez ELIZA : l’histoire du chatbot pionnier de l’IA.

Du laboratoire au bureau : L’IA à l’épreuve du monde réel

Chronologie illustrant l'évolution de l'IA, des <strong>systèmes experts des</strong> années 80 à la victoire de Deep Blue dans les années 90

L’essor des systèmes experts

Vous vous demandez peut-être à quel moment le courrier électronique est devenu populaire auprès des entreprises ? Cela a commencé ici. Dans les années 80, les développeurs ont créé des « systèmes experts » pour imiter les pros humains. Ils ont codé en dur des connaissances spécifiques, comme les règles de chimie, dans le logiciel. Il s’agissait d’une logique purement basée sur des règles.

Soudain, un logiciel pouvait diagnostiquer des infections sanguines ou configurer d’énormes serveurs VAX pour DEC. Pour la première fois, cette technologie a généré des liquidités sérieuses et tangibles pour les entreprises.

Il était donc populaire, mais seulement dans les salles de réunion des entreprises. Il s’agissait d’une astuce de productivité froide, pas d’un phénomène culturel.

Pourquoi votre médecin n’a pas été remplacé dans les années 80

Mais ces systèmes étaient incroyablement fragiles. Ils ne pouvaient pas gérer l’incertitude ni apprendre quoi que ce soit de nouveau par eux-mêmes. Si une situation ne correspondait pas aux règles, le logiciel tombait en panne.

Leur construction a coûté une fortune. Chaque règle devait être saisie manuellement par des humains. La maintenance de cette base de données est devenue un cauchemar.

Ils manquaient de la flexibilité humaine de base. Inévitablement, la bulle spéculative a éclaté, laissant de nombreux investisseurs le portefeuille vide.

Un autre hiver, une autre leçon

Au début des années 90, un deuxième « hiver de l’IA » a gelé le financement. Le marché des machines LISP spécialisées s’est effondré du jour au lendemain. Plus personne ne voulait acheter du matériel coûteux et rigide. Une fois de plus, la technologie a perdu son côté cool.

Nous avons appris une leçon dure et coûteuse à l’époque. Vous ne pouvez tout simplement pas coder l’intelligence ligne par ligne. Les machines devaient apprendre par elles-mêmes pour survivre dans le monde réel chaotique.

Les percées silencieuses

Alors que le public se désintéressait de la question, les chercheurs ont continué à creuser. Ils ont fait des progrès considérables dans les réseaux neuronaux et les algorithmes d’apprentissage. Les fondations ont été posées dans l’obscurité.

Puis vint le choc de 1997. Deep Blue d’IBM a battu Garry Kasparov, le champion du monde d’échecs en titre. Ce fut un énorme coup médiatique qui fit la une des journaux du monde entier.

Pourtant, les experts savaient qu’il ne s’agissait que d’un calcul brutal. Il ne s’agissait pas d’une véritable intelligence à votre disposition.

L’explosion des données : Préparer le terrain pour le Big Bang

Alors que l’IA semblait faire la sieste, une révolution silencieuse se préparait en arrière-plan. Trois ingrédients spécifiques sont finalement entrés en collision pour donner la recette de l’intelligence moderne.

Plus de données que nous ne savions en faire

Si vous vous demandez quand l’informatique est devenue populaire, reportez-vous à l’explosion de l’internet. Soudain, nous disposions d’une quantité astronomique de données – textes, images et vidéos. Ce n’était pas seulement du bruit, c’était le carburant à haut indice d’octane dont les moteurs d’intelligence artificielle avaient besoin.

Vous voyez, les algorithmes d’apprentissage sont des bêtes affamées qui ont besoin d’exemples massifs pour s’entraîner. Le Big Data est devenu le terrain de jeu idéal pour les chercheurs, qui ont enfin fourni à ces systèmes la matière première dont ils avaient besoin pour devenir intelligents.

Sans cette masse d’informations, les modèles d’IA que nous utilisons aujourd’hui n’existeraient tout simplement pas. C’est aussi binaire que cela.

Le matériel bénéficie d’une sérieuse mise à jour

Voici le coup de théâtre : les joueurs ont accidentellement sauvé l’IA. Les unités de traitement graphique (GPU) ont été conçues pour les jeux vidéo, mais les chercheurs ont réalisé que ces puces étaient parfaites pour les calculs lourds et parallèles qu’exige l’IA. Ils ont donc réaffecté ce silicium à des tâches sérieuses.

Cela a changé la physique de la recherche. Une formation qui durait auparavant des mois pénibles pouvait désormais être achevée en quelques jours, voire en quelques heures. Il s’agissait d’une accélération massive.

Ce moteur a enfin fait passer l’IA de la théorie académique poussiéreuse à la pratique dans le monde réel. La puissance était enfin au rendez-vous.

La percée de l’apprentissage profond

En 2012, des modèles comme AlexNet ont marqué un tournant. Ces architectures d’apprentissage profond ont pulvérisé les précédents records en matière de reconnaissance d’images, laissant les anciennes méthodes dans la poussière. L’écart était énorme.

C’était la preuve indéniable que l’approche de l’apprentissage en profondeur fonctionnait incroyablement bien. Le monde de la technologie en a immédiatement pris note.

Deux époques de l’intelligence artificielle
Caractéristiques « Ancienne IA (p. ex. systèmes experts) IA « moderne » (par exemple, apprentissage profond)
Principe de base Règles codifiées à la main Apprendre à partir des données
Source de connaissances Experts humains Ensembles de données massives (Big Data)
Flexibilité Très rigide, cassant Adaptable et flexible
Limitation principale Ne peut pas gérer l’ambiguïté Nécessite d’énormes quantités de données et de puissance de calcul
Exemple Système de diagnostic médical basé sur des règles Reconnaissance d’images, traduction linguistique

Les premières étincelles de la sensibilisation du public : L’IA dans votre poche

Quand votre téléphone s’est mis à parler à votre tour

Le coup d’envoi a été donné par Siri en 2011, suivi rapidement par Google Assistant et Alexa d’Amazon en 2014. Soudain, des millions de personnes discutent quotidiennement avec des assistants virtuels, ce qui marque le début tranquille de la popularité de l’IA dans nos poches.

Bien sûr, ils étaient souvent maladroits et nous comprenaient mal en permanence, mais ils ont normalisé la bizarrerie de parler à une machine. Cette barrière gênante s’est effondrée, donnant à la technologie conversationnelle un caractère standard.

Pourtant, personne ne s’est dit : « Je suis en train d’entraîner un réseau neuronal. » Vous vouliez simplement savoir s’il allait pleuvoir. Il s’agissait d’un utilitaire, pas d’un robot.

Les algorithmes qui savent ce que vous voulez

Puis sont arrivés les observateurs silencieux : les moteurs de recommandation de Netflix, YouTube et Amazon. Ces systèmes analysent discrètement vos goûts spécifiques pour vous proposer la prochaine émission à regarder en boucle ou le gadget dont vous ne saviez pas que vous aviez besoin.

Cette forme d’intelligence est extrêmement efficace précisément parce qu’elle se cache à la vue de tous. Elle dirige le spectacle dans l’ombre, en gérant l’ensemble de votre réalité numérique sans que vous ayez à lever le petit doigt.

« Pendant longtemps, la meilleure intelligence artificielle a été celle que vous ne remarquiez même pas. C’était le partenaire silencieux qui rendait votre vie numérique plus facile et plus personnelle. »

Une IA qui bat les humains à leurs propres jeux

Puis, en 2016, une énorme onde de choc s’est produite lorsque AlphaGo de DeepMind a écrasé le champion du monde Lee Sedol. Il ne s’agissait pas seulement d’échecs ; le jeu de go exige de l’intuition et de la stratégie, ce qui en fait une bête bien plus complexe que ce à quoi tout le monde s’attendait.

Tandis que la Silicon Valley s’affolait des implications, le grand public n’y voyait qu’un titre fascinant. Il est resté un sport de spectateur, une curiosité numérique lointaine plutôt qu’un outil.

Ces victoires ont prouvé la puissance brute de l’apprentissage profond. Cependant, l’IA n’était toujours pas un outil que vous pouviez réellement utiliser – c’était juste quelque chose qui vous battait.

Le point de basculement : Quand l’IA est devenue virale

L’IA était omniprésente, mais personne ne la voyait vraiment. Puis, à la fin de l’année 2022, le barrage a cédé. Elle a cessé d’être un bruit de fond invisible et est devenue la seule chose dont tout le monde pouvait parler.

Le moment où tout le monde devient artiste

Au milieu de l’année 2022, des outils comme DALL-E 2 et Midjourney ont ouvert la voie. Plus besoin de pinceau ni d’années de formation. Il suffisait de taper un simple texte pour créer instantanément des images époustouflantes. On avait l’impression de tricher, mais de la meilleure façon possible.

Les réseaux sociaux ont immédiatement été inondés d’œuvres d’art bizarres, magnifiques et souvent surréalistes. Les gens ont partagé des chaises en forme d’avocat et des radis de l’espace partout. C’était la première fois que la technologie semblait véritablement magique pour les utilisateurs moyens.

Ce n’était plus de la science-fiction. Il s’agissait de la première poignée de main réelle et désordonnée du public avec l’IA générative.

Le chatbot qui a cassé l’Internet

Puis, le 30 novembre 2022, OpenAI a abandonné ChatGPT. Ils n’ont pas construit un tableau de bord complexe pour les ingénieurs. Ils se sont contentés de nous donner une simple boîte de dialogue. C’est sans doute le choix de conception le plus intelligent de la décennie.

Elle ne servait pas seulement à discuter, mais aussi à écrire du code, des poèmes et des courriels. Si vous vous demandez quand l’ai est devenu populaire, la réponse se trouve dans cet utilitaire spécifique. Vous pouvez même l’utiliser pour rédiger une lettre de motivation percutante en quelques secondes.

Il a atteint 100 millions d’utilisateurs en février, battant le record de croissance de TikTok. Le génie était officiellement sorti de la bouteille.

Pourquoi cette fois-ci, c’était différent

Auparavant, l’IA n’était qu’un algorithme invisible qui alimentait votre flux Netflix. Désormais, il s’agit d’un outil tangible et interactif. Vous étiez enfin aux commandes.

Il existe un fossé énorme entre le fait d’entendre parler de technologie et le fait de l’utiliser réellement. Ce fossé s’est comblé du jour au lendemain.

La recette d’une explosion virale:

  • Accessibilité radicale: Une interface web simple, dont l’essai est souvent gratuit. Pas de code, pas d’installation nécessaire.
  • Un facteur « Wow » immédiat: Les résultats ont été impressionnants et souvent surprenants, générant un sentiment de magie.
  • Une utilité et un plaisir évidents: Les gens ont immédiatement trouvé des moyens de l’utiliser pour le travail, l’école ou simplement pour se divertir.
  • Une grande « partageabilité » : Les résultats (images, conversations amusantes) étaient parfaits pour être partagés sur les médias sociaux, créant ainsi une boucle de rétroaction.

Nous devons dès à présent tracer une ligne de démarcation nette. La popularité académique a en fait commencé il y a des années avec des percées techniques massives comme la victoire d’AlexNet par des chercheurs de l’Université de Toronto en 2012. Il ne s’agissait alors que de citations, de financements importants et de conférences très pointues. Vous n’en avez certainement pas entendu parler lors des dîners en tête-à-tête.

Puis, du jour au lendemain, l’ambiance a changé. La popularité du grand public est complètement différente ; elle se manifeste lorsque votre grand-mère vous demande d’expliquer ChatGPT au cours du déjeuner du dimanche. Cela devient un moment culturel, et pas seulement technique.

  • Popularité dans les universités et l’industrie: Stimulée par des percées techniques telles qu’AlexNet, qui a réduit les taux d’erreur à 15,3 %. Mesurée en termes de citations, de financement et d’adoption par les entreprises.
  • Popularité du grand public: Stimulée par des produits accessibles tels que ChatGPT, que tout le monde peut utiliser. Elle se mesure au nombre d’utilisateurs, aux titres des médias et à l’impact culturel.

Le cycle de l’engouement sur les stéroïdes

Vous connaissez peut-être le concept classique du cycle de Hype de Gartner. Il montre comment la technologie passe d’un « pic d’attentes exagérées » à un douloureux « creux de désillusion ». L ‘IA a en fait survécu à plusieurs « hivers » froids avant d’atteindre cet été brûlant.

Mais la vague actuelle me semble tout à fait distincte. Le cycle évolue à une vitesse vertigineuse parce que le grand public est directement impliqué. Nous ne nous contentons plus d’observer la situation depuis les coulisses, nous la pilotons.

La boucle de rétroaction est pratiquement instantanée aujourd’hui. Des millions d’utilisateurs testent, critiquent et cassent ces outils chaque jour. Ils font progresser la technologie en temps réel, plus rapidement que n’importe quel laboratoire.

Cette popularité est-elle appelée à durer ?

Voici mon point de vue sur la situation. Contrairement aux modes technologiques précédentes, l’IA ne disparaît pas parce que son utilité est tout simplement trop évidente pour être ignorée. Les gens se demandent souvent quand l’ai est devenu populaire, mais la réponse est moins importante que le changement permanent qu’il a provoqué.

« Le génie est sorti de la bouteille. Même si l’engouement initial s’estompe, des millions de personnes considèrent désormais l’IA non pas comme de la science-fiction, mais comme un outil pratique qu’ils peuvent utiliser ».

L’avenir, c’est maintenant : Vivre dans un monde où l’IA est omniprésente

Le bon, la brute et le truand

Nous assistons à un changement radical dans la manière dont le travail est réellement effectué. La productivité augmente et les blocages créatifs disparaissent pour tous les artistes. Dans les laboratoires, les scientifiques parviennent enfin à décrypter des structures protéiques qui nous ont déconcertés pendant des décennies. C’est le bon côté de la médaille.

Mais ne nous faisons pas d’illusions sur le gâchis. Les « deepfakes » brouillent la réalité, les algorithmes héritent de nos pires préjugés et la sécurité de l’emploi est précaire. Tels sont les maux de tête immédiats auxquels nous sommes confrontés quotidiennement.

Nous le découvrons au fur et à mesure que nous prenons l’avion. Il n’ existe absolument aucun manuel d’instruction pour ce type de changement sociétal.

Que se passera-t-il lorsque tout le monde pourra construire avec l’IA ?

Il n’est plus nécessaire d’être titulaire d’un doctorat en informatique pour créer quelque chose d’intelligent. Grâce aux API et aux plateformes à code bas, la barrière à l’entrée s’est effondrée. Les gens ordinaires sont désormais les architectes de leurs propres solutions intelligentes.

Cette accessibilité est à l’origine d’un flot de nouveaux services, allant de ceux qui sauvent réellement des vies à ceux qui sont complètement ridicules. Nous assistons à une vague d’expérimentation sauvage et sans précédent qui déferle sur tous les secteurs d’activité.

Le prochain grand saut concerne les systèmes qui ne se contentent pas de discuter. Nous nous dirigeons vers des acteurs autonomes, ou Qu’est-ce qu’un agent d’intelligence artificielle ? Au-delà du chatbot . Ils agissent seuls pour terminer les tâches.

Les nouvelles questions que nous nous posons tous

Si vous regardez quand l’ai est devenu populaire, vous verrez qu’il marque le moment où le débat est passé de « si » il fonctionne à « comment » nous vivons avec lui. Les questions ne sont plus techniques. Elles sont profondément sociétales, éthiques et philosophiques.

Le débat a quitté la salle des serveurs. Il se déroule désormais dans les salles du Parlement et dans votre café local.

  • Réglementation : Comment gérer les risques sans étouffer le progrès? Cette question est au cœur de débats tels que la loi européenne sur l’IA.
  • L’avenir du travail: Quels emplois seront transformés et comment la société doit-elle s’adapter ?
  • Vérité et réalité : Dans un monde de contenu généré, comment pouvons-nous faire confiance à ce que nous voyons et lisons?
  • L’objectif ultime : Sommes-nous sur la voie d’une forme d’intelligence générale artificielle (AGI) ? intelligence générale artificielle (AGI)et qu’est-ce que cela signifie ?

Des jeux théoriques de Turing à l’explosion virale de ChatGPT, l’IA est enfin passée du laboratoire au salon. Il ne s’agit pas d’un succès du jour au lendemain, mais d’une lente combustion qui s’est étalée sur plusieurs décennies. Maintenant que la technologie est entrée dans les mœurs, la véritable aventure commence. N’oubliez pas de dire « s’il vous plaît » à votre chatbot – on ne sait jamais qui compte les points.