Når du kigger rundt på internettet i dag, vil du højst sandsynligt finde AI-elementer i alle mulige afskygninger over det hele.
Det er ikke længere som taget ud af en sci-fi-film.
Fra din telefons autokorrekturfunktion til Netflix-anbefalinger og din ChatGPT-fane, der er åben lige nu, opstod det ikke fra den ene dag til den anden som en viral TikTok-sensation - det har været her og udviklet sig for øjnene af os.
Det er utroligt, hvor langt vi er kommet fra "tænk, hvis maskiner kunne tænke" til "ChatGPT, skitser mig en årelang forretningsstrategi".
I løbet af sin udvikling har AI haft mange fiaskoer og gennembrud og produceret mange geniale tænkere.
I dette indlæg går vi ikke bare tilbage i tiden, men finder også ud af, hvordan AI blev en del af den daglige samtale.
Spoiler alert: Det involverer langt mere matematikangst og eksistentiel frygt, end du forventer.
Det vigtigste at tage med
- AI-forskningen begyndte i 1940'erne, hvor de første computerpionerer drømte om tænkende maskiner.
- Feltet blev officielt lanceret i 1956 på Dartmouth-konferencen, hvor man opfandt begrebet "kunstig intelligens".
- AI oplevede flere "vintre", hvor finansieringen tørrede ud, og rampelyset forsvandt.
- Moderne AI-gennembrud kom ved at kombinere massive datasæt med kraftfuld databehandling.
- Dagens generative AI er det seneste kapitel i en 70-årig historie om menneskelige ambitioner.
Hvordan AI udviklede sig fra teori til virkelighed
Tænk på AI's historie som dit yndlingsbands karriere.
Det startede med undergrundsårene, hvor kun rigtige fans fulgte med.
Så kom mainstream-gennembruddet, som alle hævder, at de havde set komme.
Du skal aldrig bekymre dig om, at AI opdager dine tekster igen. Undetectable AI Kan hjælpe dig:
- Få din AI-assisterede skrivning til at fremstå Menneskelignende.
- Bypass alle større AI-detektionsværktøjer med bare ét klik.
- Brug AI sikkert og selvsikkert i skolen og på arbejdet.
Et par flops og comebacks senere er de pludselig overalt, og dine forældre spørger til dem.
AI fulgte nøjagtig denne bane. De tidlige forskere forsøgte ikke at opbygge ChatGPT.
De stillede grundlæggende spørgsmål: Kan maskiner tænke? Kan de lære? Kan de løse problemer, som mennesker gør?
Svaret viste sig at være "på en måde, men det er kompliceret".
AI's oprindelse (før 1950'erne)
Før vi fik computere, havde vi drømmere. Gamle myter fortalte historier om kunstige væsener, der blev bragt til live.
Den græske mytologi gav os Talos, bronzekæmpen, som beskyttede Kreta. Jødisk folklore havde golems, som er lervæsener, der animeres af mystiske ord.
Men den virkelige AI-oprindelseshistorie starter under Anden Verdenskrig med Alan Turing. Turing knækkede nazisternes koder og lagde grunden til moderne computere. Tal om multitasking.
I 1936 blev Turing introducerede konceptet om en universel computermaskine.
Denne teoretiske enhed kunne udføre enhver beregning, hvis den fik de rigtige instruktioner.
Det lyder lidt kedeligt, indtil du indser, at denne idé blev grundlaget for alle de computere, du nogensinde har brugt, inklusive den, du læser denne artikel på.
Krigen accelererede alt og skabte en behov for innovation. Pludselig brugte regeringerne deres budgetter på enhver teknologi, der kunne give dem et forspring.
De første elektroniske computere opstod i dette trykkoger-miljø.
Maskiner som ENIAC fyldte hele rum og krævede hold af ingeniører for at fungere, men de kunne udregne på sekunder, hvad der tog mennesker timer.
I slutningen af 1940'erne begyndte forskerne at undre sig: Hvis disse maskiner kan regne, kan de så også tænke?
1950s: Fødslen af kunstig intelligens
Året 1956 var AI's vigtigste øjeblik. En gruppe forskere samledes på Dartmouth College i New Hampshire til en sommerworkshop, der skulle ændre alt.
John McCarthy, Marvin Minsky, Nathaniel Rochester og Claude Shannon låste sig ind i et rum og besluttede sig for at skabe tænkende maskiner.
De opfandt begrebet "kunstig intelligens" og lagde en ambitiøs køreplan.
Disse forskere mente, at maskiner inden for en generation ville være i stand til at løse ethvert problem, som mennesker kunne løse.
I sidste ende tog de fejl med flere årtier, men deres selvtillid var beundringsværdig.
Dartmouth-konferencen lancerede AI som et legitimt studieområde.
Pludselig oprettede universiteter AI-laboratorier, regeringer udskrev checks, og forskere kom med dristige forudsigelser om fremtiden.
Alan Turing havde allerede givet dem et forspring med sin berømte test.
Turing-testen stillede et simpelt spørgsmål: Hvis du har en samtale med noget og ikke kan se, om det er et menneske eller en maskine, betyder det så noget?
Det er den ultimative "fake it till you make it"-filosofi, og den er stadig relevant i dag.
1960'erne-1970'erne: Tidlig optimisme og de første modeller
1960'erne startede med et utroligt momentum. Forskerne havde penge, medieopmærksomhed og en klar mission. Hvad kunne gå galt?
Alt, viste det sig.
Tidlige AI-programmer fungerede godt i kontrollerede miljøer, men faldt fra hinanden, når de blev konfronteret med den virkelige verdens kompleksitet.
Det svarer til at være fantastisk til at spille basketball i indkørslen, men lukke helt ned under en rigtig kamp.
ELIZAsom blev skabt af Joseph Weizenbaum i 1964, kunne føre samtaler ved at genkende nøgleord og svare med forprogrammerede sætninger.
Det var en mere sofistikeret version af Magic 8-Ball-legetøjet, og folk var vilde med det.
ELIZA arbejdede med mønstermatchning og substitution. Hvis du sagde "Jeg er ked af det", svarede den måske med "Hvorfor er du ked af det?"
Det var enkelt, men effektivt nok til at narre nogle brugere til at tro, at de talte med en rigtig terapeut. Weizenbaum blev forfærdet, da folk begyndte at knytte sig følelsesmæssigt til hans program.
Uopdagede AI'er Spørg AI fungerer på samme måde. Du kan bruge det til at simulere eller forklare, hvordan tidlige AI-modeller som ELIZA fungerede sammenlignet med moderne sprogmodeller.
Men forskellen er forbløffende. ELIZA legede ordassociation, mens nutidens AI faktisk kan forstå konteksten og generere sammenhængende svar.
I mellemtiden gik forskerne i gang med mere ambitiøse projekter. Terry Winograds SHRDLU kunne forstå og manipulere objekter i en virtuel verden lavet af blokke.
Den kan følge komplekse instruktioner som "Læg den røde klods oven på den grønne, men flyt først den blå klods af vejen."
SHRDLU var imponerende, men det fungerede kun i sin lille blokverden. Prøv at udvide det til den virkelige verden, og det ville crashe hårdere end din bærbare computer i eksamensugen.
Problemet var ikke kun teknisk. Forskerne var ved at opdage, at intelligens er langt mere kompliceret, end de troede.
Ting, som mennesker gør ubesværet, som at genkende et ansigt eller forstå sarkasme, viste sig at være utroligt vanskelige for maskiner.
1980s: Ekspertsystemer og kommerciel AI
Lige da alle troede, at kunstig intelligens var død, kom den tilbage med fuld styrke. I 1980'erne kom ekspertsystemerne, og pludselig tjente AI rigtige penge.
Ekspertsystemer var anderledes end tidligere AI-tilgange. I stedet for at forsøge at efterligne generel intelligens fokuserede de på specifikke områder, hvor menneskelige eksperter havde dyb viden.
Tænk på dem som virkelig kloge, virkelig specialiserede konsulenter.
- MYCIN diagnosticerede blodinfektioner.
- DENDRAL identificerede kemiske forbindelser.
- XCON konfigurerede computersystemer.
Disse programmer indfangede menneskelige eksperters viden og gjorde den tilgængelig for andre.
Den vigtigste indsigt var, at man ikke behøvede generel intelligens for at være nyttig.
Man skal bare være rigtig god til én ting. Det er ligesom den person, der ved alt om Marvel-film, men som ikke kan huske, hvor de har lagt deres nøgler.
Virksomhederne begyndte at være opmærksomme. Ekspertsystemer kunne løse virkelige problemer og spare rigtige penge. Medicinsk diagnose, økonomisk planlægning, fejlfinding på udstyr - AI var ikke længere bare en akademisk nysgerrighed.
Den japanske regering lancerede Femte generations computerprojektDe planlagde at skabe intelligente computere i 1990'erne. Andre lande gik i panik og startede deres egne AI-initiativer.
Rumkapløbet var slut, så hvorfor ikke have et AI-kapløb i stedet?
Ekspertsystemer havde dog deres begrænsninger. De krævede omfattende vidensudvikling, hvor man manuelt kodede menneskelig ekspertise til computerlæsbare regler.
Det var som at forsøge at lære nogen at cykle ved at skrive alle mulige scenarier ned, som de kunne komme ud for.
1990s: AI bliver (stille og roligt) mainstream
1990'erne var AI's akavede teenageår. Feltet gennemgik forandringer, fandt sin identitet og talte bestemt ikke om sine følelser.
Boomet for ekspertsystemer var aftaget. Systemerne var dyre at vedligeholde og kunne ikke tilpasse sig nye situationer. Virksomhederne begyndte at lede efter alternativer.
Men AI forsvandt ikke. Den holdt bare op med at kalde sig selv for AI.
Maskinlæringsteknikker, der havde været i støbeskeen i akademiske laboratorier, begyndte at finde praktisk anvendelse.
AI var overalt i form af e-mail-spamfiltre, registrering af kreditkortsvindel og anbefalingssystemer, men ingen pralede med det.
Det var smart markedsføring. Udtrykket "kunstig intelligens" havde for meget bagage med sig fra tidligere cyklusser. Folk fandt det bedre at tale om "statistisk analyse", "mønstergenkendelse" eller "beslutningsstøttesystemer".
Det virkelige gennembrud kom fra et skift i tilgang.
Og ingen kaldte det AI. Det ville have været alt for åbenlyst.
2000s: Grundlaget for moderne AI
2000'erne lagde grunden til alt det, der sker inden for AI i dag.
Det er som træningsmontagen i en sportsfilm, bortset fra at den varede et årti og involverede meget mere matematik.
Flere faktorer samledes for at skabe perfekte betingelser for AI-udviklingen. Computerkraft blev billigere og mere kraftfuld.
Internettet havde skabt enorme datasæt. Og forskere havde fundet ud af, hvordan man effektivt kunne træne neurale netværk.
I mellemtiden var teknologivirksomheder stille og roligt Bygger AI ind i alt.
Googles søgealgoritme brugte maskinlæring til at rangere websider. Amazons anbefalingsmotor skabte salg for milliarder. Facebooks nyhedsfeed-algoritme bestemte, hvad millioner af mennesker så hver dag.
Da iPhone blev lanceret i 2007, fik alle en kraftig computer i lommen, og den genererede hidtil usete mængder af personlige data.
Hvert tryk, swipe og søgning blev et datapunkt, der kunne træne bedre AI-systemer.
I slutningen af årtiet var AI indlejret i det moderne livs digitale infrastruktur.
De fleste mennesker var ikke klar over det, men de interagerede med AI-systemer dusinvis af gange om dagen.
2010s: Deep Learning og Big Data
I 2010'erne gik AI fra at være et "smart teknisk trick" til "hold da kæft, det ændrer alt".
Deep learning startede årtiet med et brag. I 2012 blev et neuralt netværk kaldet AlexNet knuste konkurrenterne i en billedgenkendelseskonkurrence.
Det var ikke bare bedre end andre AI-systemer - det var bedre end menneskelige eksperter.
Det var ikke meningen, at det skulle ske endnu.
De hemmelige ingredienser var større datasæt, kraftigere computere og bedre træningsteknikker.
Grafikprocessorenheder (GPU'er), som oprindeligt var designet til videospil, viste sig at være perfekte til at træne neurale netværk. Spillere skabte ved et uheld den hardware, der skulle drive AI-revolutionen.
Medierne kunne ikke få nok. Hvert eneste AI-gennembrud skabte overskrifter. Deep Blue slår Kasparov i skak i 1990'erne var imponerende, men at AlphaGo slog verdensmesteren i Go i 2016 var overvældende.
Go skulle være for komplekst til, at computere kunne mestre det.
Er du forvirret over disse avancerede teknologier? Moderne AI-værktøjer som Undetectable AI's AI-chat kan forklare komplekse AI-koncepter som konvolutionelle neurale netværk eller forstærkningslæring til ikke-tekniske målgrupper.
De samme deep learning-teknikker, som driver billedgenkendelse, driver også nutidens sprogmodeller.
Autonome køretøjer fangede alles fantasi. Selvkørende biler gik fra science fiction til "kommer næste år" (et løfte, der stadig fremsættes, men med større forsigtighed i dag).
Virtuelle assistenter blev mainstream. Siri, Alexa og Google Assistant bragte AI ind i millioner af hjem.
Alle havde nu samtaler med deres enheder, selv om disse samtaler mest var "spil min musik" og "hvad er vejret?".
Årtiet sluttede med fremkomsten af transformerarkitekturer og opmærksomhedsmekanismer.
Disse innovationer skulle vise sig at være afgørende for den næste fase af AI-udviklingen, selv om de fleste mennesker aldrig havde hørt om dem.
2020s: Generativ AI og store sprogmodeller
2020'erne startede med en pandemi, men AI-forskerne havde for travlt med at ændre verden til at opdage det.
OpenAI's GPT-modeller gik fra at være interessante forskningsprojekter til at blive kulturelle fænomener. GPT-3 blev lanceret i 2020 og slog benene væk under alle med sin evne til at skrive sammenhængende tekst om næsten ethvert emne.
Derefter ChatGPT blev til i slutningen af 2022 og ødelagde internettet. I løbet af få dage havde millioner af mennesker samtaler med AI for første gang.
Studerende brugte det til lektier. Arbejdstagere automatiserede dele af deres job. Indholdsskabere genererede ideer hurtigere end nogensinde.
Reaktionen var øjeblikkelig og intens. Nogle mennesker var forbløffede. Andre var skrækslagne. De fleste var et sted midt imellem og forsøgte at finde ud af, hvad det betød for deres karrierer og deres børns fremtid.
Generativ AI blev den største tech-historie siden iPhone.
Alle virksomheder begyndte at tilføje AI-funktioner. Alle nystartede virksomheder hævdede at være "AI-drevne".
Hver konference havde mindst tolv paneler om fremtiden for kunstig intelligens.
Det er her, værktøjer som Undetectable AI's AI SEO-skribent, AI essayforfatterog AI Humanizer passer ind i historien.
Disse moderne applikationer repræsenterer den praktiske udvikling af generativ AI-teknologi. De tager de samme underliggende modeller, som driver ChatGPT, og anvender dem på specifikke brugssager.
Billedgenereringen fulgte en lignende bane. DALL-E, Midjourney og Stable Diffusion kunne skab fotorealistiske billeder ud fra tekst beskrivelser. Kunstnerne var lige dele begejstrede og bekymrede.
Teknologien blev forbedret i rasende fart. Modellerne blev større, smartere og mere effektive. GPT-4 kunne bestå professionelle eksamener og skrive kode.
Claude kunne føre nuancerede samtaler om komplekse emner. Bard kunne søge på nettet og give aktuelle oplysninger.
Store milepæle i AI-historien
Nogle øjeblikke i AI-historien fortjener særlig anerkendelse.
Det er ikke bare tekniske landvindinger, men kulturelle vendepunkter, som har ændret vores syn på kunstig intelligens.
- Dartmouth-konferencen (1956) lancerede officielt feltet og gav AI sit navn. Uden dette møde ville vi måske kalde det "maskinintelligens" eller "computational thinking" eller noget lige så kedeligt.
- Deep Blue, der besejrede Garry Kasparov i skak (1997), var AI's første mainstream-øjeblik. Millioner så en computer overgå en af menneskehedens største strategiske hjerner. Fremtiden føltes pludselig meget virkelig og en smule skræmmende.
- IBM Watson vinder i Jeopardy! (2011) viste, at AI kunne håndtere naturligt sprog og generel viden. At se en computer klare Daily Double var både imponerende og foruroligende.
- AlphaGo slår Lee Sedol i Go (2016) var et teknisk mesterværk. Go har flere mulige brætpositioner end atomer i det observerbare univers, men alligevel fandt DeepMinds system vinderstrategier, som menneskelige eksperter aldrig havde overvejet.
- ImageNet-gennembruddet (2012)) satte gang i deep learning-revolutionen. AlexNets sejr i konkurrencen om billedgenkendelse beviste, at neurale netværk var klar til prime time.
- GPT-3's udgivelse (2020) demokratiserede genereringen af AI-indhold. Pludselig kunne alle få adgang til kraftfulde sprogmodeller via enkle webgrænseflader.
- ChatGPT's lancering (2022) bragte AI ud til masserne. Inden for to måneder havde den 100 millioner brugere, hvilket gjorde den til den hurtigst voksende forbrugerapplikation i historien.
Hver milepæl bygger på tidligere arbejde og åbner nye muligheder.
Det er sådan, fremskridt fungerer: gradvise forbedringer afbrudt af øjeblikke med gennembrud, der får alle til at genoverveje, hvad der er muligt.
AI-vintre og comebacks
AI's historie er ikke en lige linje af fremskridt. Den ligner mere en rutsjebane, der er designet af en person med engagementsproblemer.
Feltet har oplevet flere "AI-vintre", perioder, hvor finansieringen tørrede ud, forskerne skiftede felt, og medierne erklærede AI for død.
Det var ikke bare mindre tilbageslag, men eksistentielle kriser, som næsten tog livet helt af AI-forskningen.
Hvad forårsagede AI-vintrene?
Den første AI-vinter ramte i midten af 1970'erne. Tidlige forskere havde fremsat dristige forudsigelser om at opnå intelligens på menneskeligt niveau inden for årtier. Da disse forudsigelser ikke holdt stik, begyndte skuffelsen at melde sig.
Offentlige finansieringsorganer begyndte at stille ubehagelige spørgsmål. Hvor var de tænkende maskiner, de var blevet lovet?
Hvorfor var AI-systemerne stadig så begrænsede? Hvad lavede forskerne egentlig med alle de penge?
Den britiske regering bestilte Lighthill-rapporten i 1973som mente, at AI-forskningen var overhypet og ikke leverede varen.
Finansieringen blev skåret drastisk ned. Lignende undersøgelser i andre lande nåede frem til lignende konklusioner.
Den anden AI-vinter kom i slutningen af 1980'erne, efter at boblen med ekspertsystemer var bristet. Virksomhederne havde investeret meget i AI-teknologi, men fandt det svært at vedligeholde og skalere den.
Markedet kollapsede og tog mange AI-startups med sig.
Begge vintre havde fælles temaer. Urealistiske forventninger førte til overdimensionerede løfter. Da virkeligheden ikke stemte overens med hypen, var modreaktionen uundgåelig.
Forskerne lærte værdifulde ting om at styre forventningerne og fokusere på praktiske anvendelser.
Fremtiden for AI: Hvad er det næste?
At forudsige AI's fremtid er som at forsøge at forudsige vejret ved hjælp af en Magic 8-Ball. Det er muligt, men din præcision vil nok ikke imponere nogen.
Alligevel ser det ud til, at nogle tendenser vil fortsætte. AI-systemer vil blive dygtigere, mere effektive og mere integrerede i dagligdagen.
Spørgsmålet er ikke, om AI vil blive mere kraftfuld - det er, hvordan samfundet vil tilpasse sig den kraft.
- Generativ AI vil sandsynligvis blive bedre til at skabe indhold, der ikke kan skelnes fra menneskeligt arbejde. Kunstnere, forfattere og indholdsskabere bliver nødt til at finde ud af, hvordan de kan konkurrere med eller samarbejde med AI-systemer.
- Autonome systemer vil blive mere almindelige. Selvkørende biler lever måske endelig op til deres løfter. Leveringsdroner kan fylde himlen. Robotarbejdere kan håndtere farlige eller gentagne job.
- Forskning i AI-sikkerhed bliver stadig vigtigere, efterhånden som systemerne bliver mere kraftfulde. Vi får brug for bedre måder at sikre, at AI-systemer opfører sig efter hensigten og ikke forårsager utilsigtet skade.
- De økonomiske konsekvenser er svimlende. Nogle job vil forsvinde. Nye jobs vil opstå. Overgangen kan blive glat eller kaotisk, afhængigt af hvor godt vi forbereder os.
- Regulering vil spille en større rolle. Regeringerne arbejder allerede på rammer for styring af AI. Udfordringen er at skabe regler, der beskytter mennesker uden at kvæle innovation.
- Demokratiseringen af AI vil fortsætte. Værktøjer, der engang krævede ekspertise på ph.d.-niveau, bliver tilgængelige for alle. Det kan frigøre en enorm kreativitet og innovation, eller det kan skabe nye problemer, som vi endnu ikke har forudset.
Find flere nyttige værktøjer her, eller prøv vores AI Detector og Humanizer i widgetten nedenfor!
Denne historie skriver sig selv ... næsten.
AI's historie er et vidnesbyrd om menneskelige ambitioner, der gør umulige drømme til virkelighed.
Fra Turings teorier til nutidens generative modeller er der sket fremskridt ved at tackle uløselige problemer med vedholdenhed.
Hver æra føltes revolutionerende, men nutidens hurtige tempo og omfang er uden fortilfælde.
AI er dybest set årtiers arbejde udført af geniale hjerner. Historien er langt fra slut. Det næste gennembrud kan komme hvor som helst fra, og dets indvirkning vil afhænge af de valg, vi træffer nu.
Vi har forestillet os kunstige hjerner i årtusinder, og i dag er vi i gang med at bygge dem.
Med usynlig kunstig intelligens AI SEO-skribent, AI-chat, AI essayforfatterog AI Humanizerkan du skabe naturligt klingende indhold af høj kvalitet, som er optimeret, engagerende og helt dit eget.
Forsøg Uopdagelig AI og tag din AI-drevne skrivning til næste niveau.