När du tittar runt på internet nuförtiden kommer du mer än troligt att hitta AI-element i alla former och former överallt.
Det är inte längre som hämtat ur en sci-fi-film längre.
Från telefonens autokorrigeringsfunktion till Netflix rekommendationer och din ChatGPT-flik som är öppen just nu, det uppstod inte över natten som en viral TikTok-sensation - det har varit här och utvecklats framför våra egna ögon.
Det är fantastiskt hur långt vi har kommit från "tänk om maskiner kunde tänka" till "ChatGPT, skissera en ettårig affärsstrategi för mig".
Under hela sin utveckling har AI haft många misslyckanden och genombrott och producerat många briljanta tänkare.
I det här inlägget kommer vi inte bara att gå tillbaka i tiden, utan också ta reda på hur AI blev en del av det dagliga samtalet.
Spoilervarning: det handlar om mycket mer matteångest och existentiell rädsla än du förväntar dig.
Viktiga slutsatser
- AI-forskningen inleddes på 1940-talet när de tidiga datorpionjärerna drömde om tänkande maskiner.
- Området lanserades officiellt 1956 vid Dartmouthkonferensen, då termen "artificiell intelligens" myntades.
- AI upplevde flera "vintrar" då finansieringen sinade och strålkastarljuset försvann.
- De moderna AI-genombrotten kom genom att kombinera massiva datamängder med kraftfulla datorer.
- Dagens generativa AI utgör det senaste kapitlet i en 70-årig historia av mänskliga ambitioner.
Hur AI utvecklades från teori till verklighet
Tänk på AI:s historia som på ditt favoritbands karriär.
Det började med undergroundåren då bara riktiga fans uppmärksammade det.
Sedan kom det stora genombrottet som alla säger sig ha sett komma.
Oroa dig aldrig för att AI upptäcker dina texter igen. Undetectable AI Kan hjälpa dig:
- Få din AI-assisterade skrivning att synas människoliknande.
- Bypass alla större AI-detekteringsverktyg med bara ett klick.
- Användning AI säkert och självsäkert i skolan och på jobbet.
Några floppar och comebacker senare är de plötsligt överallt, och dina föräldrar frågar om dem.
AI följde exakt samma bana. Tidiga forskare försökte inte att bygga ChatGPT.
De ställde grundläggande frågor: Kan maskiner tänka? Kan de lära sig? Kan de lösa problem som människor gör?
Svaret visade sig vara "på sätt och vis, men det är komplicerat".
AI:s ursprung (före 1950-talet)
Innan vi hade datorer hade vi drömmare. Forntida myter berättade historier om artificiella varelser som väckts till liv.
Den grekiska mytologin gav oss Talos, bronsjätten som skyddade Kreta. I judisk folklore fanns golems, lervarelser som besjälades av mystiska ord.
Men den verkliga ursprungshistorien för AI börjar under andra världskriget med Alan Turing. Turing knäckte nazisternas koder och lade grunden för modern databehandling. Snacka om multitasking.
År 1936 blev Turing introducerade konceptet med en universell datormaskin.
Denna teoretiska apparat skulle kunna utföra vilken beräkning som helst om den fick rätt instruktioner.
Det låter lite tråkigt tills man inser att den här idén blev grunden för alla datorer du någonsin har använt, inklusive den du läser den här artikeln på.
Kriget påskyndade allt och skapade en behov för innovation. Plötsligt använde regeringarna sina budgetar till all teknik som kunde ge dem ett försprång.
De första elektroniska datorerna växte fram ur denna tryckkokarmiljö.
Maskiner som ENIAC fyllde hela rum och krävde team av ingenjörer för att fungera, men de kunde på sekunder beräkna vad som tog människor timmar.
I slutet av 1940-talet började forskarna undra: om dessa maskiner kan beräkna, kan de då tänka?
1950s: Den artificiella intelligensens födelse
År 1956 var AI:s viktigaste ögonblick. En grupp forskare samlades på Dartmouth College i New Hampshire för en sommarworkshop som skulle komma att förändra allt.
John McCarthy, Marvin Minsky, Nathaniel Rochester och Claude Shannon låste i princip in sig i ett rum och bestämde sig för att skapa tänkande maskiner.
De myntade begreppet "artificiell intelligens" och lade fram en ambitiös färdplan.
Dessa forskare trodde att maskiner inom en generation skulle kunna lösa alla problem som människor kunde lösa.
I slutändan var de fel ute med flera decennier, men deras självförtroende var beundransvärt.
Dartmouthkonferensen lanserade AI som ett legitimt studieområde.
Plötsligt inrättade universiteten AI-labb, regeringarna skrev ut checkar och forskarna gjorde djärva förutsägelser om framtiden.
Alan Turing hade redan gett dem ett försprång med sitt berömda test.
Turingtestet ställde en enkel fråga: om du har en konversation med något och inte kan se om det är en människa eller en maskin, spelar det någon roll?
Det är den ultimata "fake it till you make it"-filosofin, och den är fortfarande relevant idag.
1960- och 1970-talen: Tidig optimism och de första modellerna
1960-talet började med ett otroligt momentum. Forskarna hade finansiering, medieuppmärksamhet och ett tydligt uppdrag. Vad kunde gå fel?
Allt, visade det sig.
Tidiga AI-program fungerade bra i kontrollerade miljöer men föll samman när de ställdes inför komplexiteten i den verkliga världen.
Det är som att vara fantastisk på att spela basket på sin uppfart men helt sluta fungera under en riktig match.
ELIZAsom skapades av Joseph Weizenbaum 1964, kunde föra konversationer genom att känna igen nyckelord och svara med förprogrammerade fraser.
Det var en mer sofistikerad version av leksaken Magic 8-Ball, och folk älskade den.
ELIZA arbetade med mönstermatchning och substitution. Om du sa "Jag är ledsen", kunde den svara med "Varför är du ledsen?"
Det var enkelt men tillräckligt effektivt för att lura vissa användare att tro att de talade med en riktig terapeut. Weizenbaum blev förskräckt när människor började bilda känslomässiga band till hans program.
Oupptäckbara AI:s Fråga AI fungerar på ett liknande sätt. Du kan använda den för att simulera eller förklara hur tidiga AI-modeller som ELIZA fungerade jämfört med moderna språkmodeller.
Skillnaden är dock häpnadsväckande. ELIZA lekte ordassociation, medan dagens AI faktiskt kan förstå sammanhang och generera sammanhängande svar.
Under tiden tog forskarna itu med mer ambitiösa projekt. Terry Winograds SHRDLU kunde förstå och manipulera objekt i en virtuell värld gjord av block.
Den kan följa komplexa instruktioner som "Lägg det röda blocket ovanpå det gröna, men flytta först det blå blocket ur vägen."
SHRDLU var imponerande, men den fungerade bara i sin lilla blockvärld. Om man försökte utöka det till den verkliga världen skulle det krascha hårdare än din bärbara dator under tentaveckan.
Problemet var inte bara tekniskt. Forskarna upptäckte att intelligens är mycket mer komplicerat än de trodde.
Saker som människor gör utan ansträngning, som att känna igen ett ansikte eller förstå sarkasm, visade sig vara otroligt svåra för maskiner.
1980s: Expertsystem och kommersiell AI
Precis när alla trodde att AI var dött kom det tillbaka med besked. På 1980-talet kom expertsystemen och plötsligt kunde man tjäna stora pengar på AI.
Expertsystem skilde sig från tidigare AI-metoder. Istället för att försöka replikera allmän intelligens fokuserade de på specifika områden där mänskliga experter hade djup kunskap.
Se dem som riktigt smarta och specialiserade konsulter.
- MYCIN diagnostiserade blodinfektioner.
- DENDRAL identifierade kemiska föreningar.
- XCON konfigurerade datorsystem.
Dessa program fångar upp kunskapen hos mänskliga experter och gör den tillgänglig för andra.
Den viktigaste insikten var att man inte behövde allmän intelligens för att vara användbar.
Du behövde bara vara riktigt bra på en sak. Det är som den där personen som vet allt om Marvel-filmer men som inte kommer ihåg var han glömde sina nycklar.
Företagen började uppmärksamma detta. Expertsystem kunde lösa verkliga problem och spara riktiga pengar. Medicinsk diagnos, ekonomisk planering, felsökning av utrustning - AI var inte bara en akademisk nyfikenhet längre.
Den japanska regeringen inledde Femte generationens datorprojektoch planerade att skapa intelligenta datorer redan på 1990-talet. Andra länder fick panik och startade sina egna AI-initiativ.
Rymdkapplöpningen var över, så varför inte ha en AI-kapplöpning istället?
Expertsystemen hade dock sina begränsningar. De krävde omfattande kunskapsteknik, där mänsklig expertis manuellt kodades till datorläsbara regler.
Det var som att försöka lära någon att cykla genom att skriva ner alla tänkbara scenarier som de skulle kunna stöta på.
1990s: AI blir mainstream (i det tysta)
1990-talet var AI:s besvärliga tonårstid. Området genomgick förändringar, hittade sin identitet och pratade definitivt inte om sina känslor.
Boomen för expertsystem hade svalnat. Systemen var dyra att underhålla och kunde inte anpassa sig till nya situationer. Företagen började leta efter alternativ.
Men AI försvann inte. Den slutade bara kalla sig själv för AI.
Maskininlärningstekniker som hade utvecklats i akademiska laboratorier började få praktiska tillämpningar.
AI fanns överallt i form av spamfilter för e-post, kreditkortsbedrägerier och rekommendationssystem, men det var ingen som skröt om det.
Det här var smart marknadsföring. Termen "artificiell intelligens" bar på för mycket bagage från tidigare cykler. Folk tyckte att det var bättre att tala om "statistisk analys", "mönsterigenkänning" eller "beslutsstödsystem".
Det verkliga genombrottet kom genom ett förändrat arbetssätt.
Och ingen kallade det AI, dock. Det skulle ha varit alldeles för uppenbart.
2000s: Grunderna för modern AI
Under 2000-talet lades grunden för allt som händer inom AI idag.
Det är som träningsmontaget i en sportfilm, fast det varade i ett decennium och innehöll mycket mer matematik.
Flera faktorer samverkade för att skapa perfekta förutsättningar för AI-utvecklingen. Datorkraften blev allt billigare och kraftfullare.
Internet hade skapat enorma datamängder. Och forskarna hade kommit på hur de skulle träna neurala nätverk på ett effektivt sätt.
Under tiden var teknikföretagen tyst bygga in AI i allt.
Googles sökalgoritm använde maskininlärning för att ranka webbsidor. Amazons rekommendationsmotor driver miljardförsäljning. Facebooks nyhetsflödesalgoritm bestämde vad miljontals människor såg varje dag.
iPhone lanserades 2007 och innebar att alla fick en kraftfull dator i fickan, vilket genererade mängder av personuppgifter som aldrig tidigare skådats.
Varje tryck, svepning och sökning blev en datapunkt som kunde användas för att utbilda bättre AI-system.
I slutet av årtiondet var AI en del av den digitala infrastrukturen i det moderna livet.
De flesta människor insåg det inte, men de interagerade med AI-system dussintals gånger per dag.
2010s: Deep Learning och Big Data
På 2010-talet gick AI från att vara ett "snyggt tekniskt trick" till "jävlar, det här förändrar allt".
Deep learning inledde årtiondet med en rivstart. År 2012 introducerades ett neuralt nätverk kallat AlexNet krossade konkurrenterna i en tävling i bildigenkänning.
Det var inte bara bättre än andra AI-system - det var bättre än mänskliga experter.
Det var inte meningen att det skulle hända än.
De hemliga ingredienserna var större datamängder, kraftfullare datorer och bättre utbildningstekniker.
Grafikprocessorer (GPU:er), som ursprungligen utformades för videospel, visade sig vara perfekta för att träna neurala nätverk. Spelare råkade av misstag skapa den hårdvara som skulle driva AI-revolutionen.
Media kunde inte få nog. Varje genombrott inom AI skapade rubriker. Deep Blue slår Kasparov i schack på 1990-talet var imponerande, men att AlphaGo slog världsmästaren i Go 2016 var helt otroligt.
Go skulle vara för komplicerat för datorer att bemästra.
Har du inte koll på den här avancerade tekniken? Moderna AI-verktyg som oupptäckbara AI:s AI-chatt kan förklara komplexa AI-koncept som konvolutionella neurala nätverk eller förstärkningsinlärning för icke-tekniska målgrupper.
Samma tekniker för djupinlärning som används för bildigenkänning används också för dagens språkmodeller.
Autonoma fordon fångade allas fantasi. Självkörande bilar gick från science fiction till "kommer nästa år" (ett löfte som fortfarande ges, men med större försiktighet nuförtiden).
Virtuella assistenter blev mainstream. Siri, Alexa och Google Assistant förde in AI i miljontals hem.
Alla hade nu konversationer med sina enheter, även om dessa konversationer mest handlade om "spela min musik" och "vad är det för väder?"
Decenniet avslutades med framväxten av transformatorarkitekturer och uppmärksamhetsmekanismer.
Dessa innovationer skulle visa sig vara avgörande för nästa fas i AI-utvecklingen, trots att de flesta människor aldrig hade hört talas om dem.
2020s: Generativ AI och stora språkmodeller
2020-talet började med en pandemi, men AI-forskarna var för upptagna med att förändra världen för att märka det.
OpenAI:s GPT-modeller gick från intressanta forskningsprojekt till kulturella fenomen. GPT-3 lanserades 2020 och slog alla med häpnad med sin förmåga att skriva sammanhängande text om nästan vilket ämne som helst.
Sedan ChatGPT kom till i slutet av 2022 och slog ner som en bomb på internet. Inom loppet av några dagar hade miljontals människor för första gången konversationer med AI.
Studenter använde den för läxläsning. Arbetare automatiserade delar av sina jobb. Innehållsskapare genererade idéer snabbare än någonsin.
Responsen var omedelbar och intensiv. Vissa människor blev förvånade. Andra var livrädda. De flesta var någonstans mittemellan och försökte lista ut vad detta innebar för deras karriärer och deras barns framtid.
Generativ AI blev den största tekniknyheten sedan iPhone.
Alla företag började lägga till AI-funktioner. Alla nystartade företag hävdade att de var "AI-drivna".
Varje konferens hade minst tolv paneler om framtiden för artificiell intelligens.
Det är här verktyg som Undetectable AI:s AI SEO Skribent, AI uppsatsförfattare, och AI Humanizer passar in i berättelsen.
Dessa moderna applikationer representerar den praktiska utvecklingen av generativ AI-teknik. De tar samma underliggande modeller som driver ChatGPT och tillämpar dem på specifika användningsfall.
Bildgenereringen följde en liknande bana. DALL-E, Midjourney och Stable Diffusion kunde skapa fotorealistiska bilder från text beskrivningar. Konstnärerna var lika uppspelta som oroliga.
Tekniken förbättrades i en rasande fart. Modellerna blev större, smartare och mer kapabla. GPT-4 kunde klara professionella examina och skriva kod.
Claude kunde föra nyanserade samtal om komplexa ämnen. Bard kunde söka på webben och ge aktuell information.
Viktiga milstolpar i AI-historien
Vissa ögonblick i AI-historien förtjänar ett särskilt erkännande.
Det handlar inte bara om tekniska landvinningar utan om kulturella vändpunkter som förändrat hur vi tänker kring artificiell intelligens.
- Dartmouthkonferensen (1956) var den officiella starten för området och gav AI dess namn. Utan denna sammankomst hade vi kanske kallat det "maskinintelligens" eller "beräkningstänkande" eller något annat lika tråkigt.
- Deep Blue som besegrade Garry Kasparov i schack (1997) var AI:s första stora genombrott. Miljontals människor såg en dator överträffa en av mänsklighetens största strategiska hjärnor. Framtiden kändes plötsligt väldigt verklig och lite skrämmande.
- IBM Watson vinner i Jeopardy! (2011) visade att AI kunde hantera naturligt språk och allmän kunskap. Att se en dator spika Daily Double var både imponerande och oroande.
- AlphaGo slår Lee Sedol i Go (2016) var ett tekniskt mästerverk. Go har fler möjliga positioner på brädet än det finns atomer i det observerbara universum, men DeepMinds system hittade vinnande strategier som mänskliga experter aldrig hade övervägt.
- ImageNet-genombrottet (2012)) blev startskottet för revolutionen inom djupinlärning. AlexNets seger i tävlingen om bildigenkänning visade att neurala nätverk var redo för prime time.
- GPT-3:s lansering (2020) demokratiserade genereringen av AI-innehåll. Plötsligt kunde vem som helst få tillgång till kraftfulla språkmodeller via enkla webbgränssnitt.
- ChatGPT:s lansering (2022) gjorde AI tillgängligt för de breda massorna. Inom två månader hade den 100 miljoner användare, vilket gjorde den till den snabbast växande konsumentapplikationen i historien.
Varje milstolpe bygger vidare på tidigare arbete samtidigt som nya möjligheter öppnas.
Det är så framsteg fungerar: gradvisa förbättringar avbrutna av ögonblick av genombrott som får alla att ompröva vad som är möjligt.
AI-vinter och comebacks
AI:s historia är inte en rak linje av framsteg. Det är mer som en berg-och-dalbana designad av någon med engagemangsproblem.
Området har upplevt flera "AI-vinter", perioder då finansieringen sinat, forskare bytt fält och media dödförklarat AI.
Det handlade inte bara om mindre bakslag utan om existentiella kriser som nästan helt tog död på AI-forskningen.
Vad orsakade AI-vintrarna?
Den första AI-vintern slog till i mitten av 1970-talet. Tidiga forskare hade gjort djärva förutsägelser om att uppnå intelligens på mänsklig nivå inom några decennier. När dessa förutsägelser inte slog in blev man besviken.
Statliga finansieringsorgan började ställa obekväma frågor. Var fanns de tänkande maskiner som de hade blivit lovade?
Varför var AI-systemen fortfarande så begränsade? Vad exakt gjorde forskarna med alla dessa pengar?
Den brittiska regeringen beställde Lighthill-rapporten 1973som ansåg att AI-forskningen var överhypad och inte levererade vad den skulle.
Finansieringen skars ner dramatiskt. Liknande granskningar i andra länder kom fram till liknande slutsatser.
Den andra AI-vintern kom i slutet av 1980-talet efter att bubblan med expertsystem hade spruckit. Företagen hade gjort stora investeringar i AI-teknik, men det var svårt att underhålla och skala upp den.
Marknaden kollapsade och många AI-startups följde med i fallet.
Båda vintrarna hade gemensamma teman. Orealistiska förväntningar ledde till överdimensionerade löften. När verkligheten inte stämde överens med löftena var bakslag oundvikliga.
Forskarna har dragit värdefulla lärdomar om hur man hanterar förväntningar och fokuserar på praktiska tillämpningar.
AI:s framtid: Vad händer härnäst?
Att förutspå AI:s framtid är som att försöka förutspå vädret med hjälp av en Magic 8-Ball. Det är möjligt, men din träffsäkerhet kommer förmodligen inte att imponera på någon.
Vissa trender ser dock ut att fortsätta. AI-system kommer att bli mer kapabla, effektivare och mer integrerade i det dagliga livet.
Frågan är inte om AI kommer att bli mer kraftfullt - det är hur samhället kommer att anpassa sig till den kraften.
- Generativ AI kommer förmodligen att bli bättre på att skapa innehåll som inte går att skilja från mänskligt arbete. Konstnärer, författare och innehållsskapare kommer att behöva ta reda på hur de ska konkurrera med eller samarbeta med AI-system.
- Autonoma system kommer att bli vanligare. Självkörande bilar kanske äntligen lever upp till sina löften. Leveransdrönare kan fylla himlen. Robotarbetare kan hantera farliga eller repetitiva jobb.
- Forskning om AI-säkerhet kommer att bli allt viktigare i takt med att systemen blir allt kraftfullare. Vi kommer att behöva bättre sätt att säkerställa att AI-system beter sig som avsett och inte orsakar oavsiktlig skada.
- De ekonomiska konsekvenserna är häpnadsväckande. Vissa jobb kommer att försvinna. Nya jobb kommer att dyka upp. Övergången kan bli smidig eller kaotisk, beroende på hur väl vi förbereder oss.
- Reglering kommer att spela en större roll. Regeringar arbetar redan med ramverk för styrning av AI. Utmaningen är att skapa regler som skyddar människor utan att kväva innovation.
- Demokratiseringen av AI kommer att fortsätta. Verktyg som tidigare krävde expertis på doktorandnivå blir nu tillgängliga för alla. Detta kan frigöra enorm kreativitet och innovation, eller så kan det skapa nya problem som vi ännu inte har förutsett.
Hitta fler användbara verktyg här, eller prova vår AI Detector och Humanizer i widgeten nedan!
Den här historien skriver sig själv... Nästan
AI:s historia är ett bevis på människans ambition att förverkliga omöjliga drömmar.
Från Turings teorier till dagens generativa modeller har framstegen kommit genom att man med uthållighet har tagit sig an olösliga problem.
Varje tidsålder har känts revolutionerande, men dagens snabba tempo och omfattning saknar motstycke.
AI är i grunden decennier av arbete av briljanta hjärnor. Historien är långt ifrån över. Nästa genombrott kan komma var som helst ifrån, och dess inverkan kommer att bero på de val vi gör nu.
Vi har föreställt oss artificiella hjärnor i årtusenden, och idag bygger vi dem.
Med oupptäckbara AI:er AI SEO Skribent, AI-chatt, AI uppsatsförfattare, och AI Humanizerkan du skapa högkvalitativt, naturligt klingande innehåll som är optimerat, engagerande och unikt för dig.
Försök Odetekterbar AI och ta ditt AI-drivna skrivande till nästa nivå.