Artificiell intelligens

Från Wikipedia
(Omdirigerad från Weak AI)
Hoppa till: navigering, sök
Uppslagsordet ”AI” leder hit. För andra betydelser, se AI (olika betydelser).

Utvald kandidat.svg

Den här artikeln är nominerad till att bli en utmärkt eller bra artikel. Vad tycker du? Gör din röst hörd!

Artificiell intelligens kan användas för att styra robotar. Roboten ASIMO visas på bilden.

Artificiell intelligens (AI) (engelska: Artificial intelligence) är intelligens som uppvisas av maskiner. Det är också namnet på det akademiska studieområde som studerar hur man skapar datorer och datorprogram med intelligent beteende. De flesta AI-forskare och AI-läroböcker definierar detta område som "studiet och utformningen av intelligenta agenter", där en intelligent agent är ett system som är medveten om sin omgivning och vidtar åtgärder som maximerar sina chanser att lyckas. John McCarthy, som myntade begreppet 1955, definierar det som "vetenskapen och tekniken att skapa intelligenta maskiner".[1]

AI-forskningen är mycket teknisk och specialiserad, och djupt splittrad i delfält som ofta helt saknar kontakt med varandra.[2] Till en del beror delningen på sociala och kulturella faktorer. Delområden har vuxit upp kring särskilda institutioner och enskilda forskares projekt. AI-forskningen är också kluven av flera tekniska frågor. Vissa delområden fokuserar på att lösa specifika problem. Andra är inriktade på en av flera möjliga metoder, på användningen av ett visst verktyg eller på att utföra speciella tillämpningar.

De främsta problemen (eller målen) för AI-forskningen är bland annat resonemang, kunskap, planering, inlärning, naturlig språkbearbetning (kommunikation), perception och förmåga att flytta och manipulera objekt.[3] Artificiell generell intelligens (AGI) är fortfarande ett av forskningens långsiktiga mål. Metoder som är vanliga för närvarande populära metoder är statistiska metoder, beräkningsintelligens och traditionell symbolisk AI. Det finns ett stort antal verktyg som används i AI, inklusive versioner av sökning och matematisk optimering, logik, metoder baserade på sannolikheter och ekonomi, och många andra. AI-forskningen är tvärvetenskaplig, det vill säga att flera olika vetenskapsdiscipliner och yrken konvergerar, till exempel datavetenskap, matematik, psykologi, lingvistik, filosofi och neurovetenskap samt andra specialiserade områden, som artificiell psykologi.

Forskningsområdet grundades på påståendet att en central egenskap hos människan, nämligen intelligens, "går att beskrivas exakt, vilket gör det möjligt för en maskin att simulera den." Detta väcker filosofiska frågor om själen och om etiken kring att skapa konstgjorda varelser utrustade med människoliknande intelligens, frågor som har tagits upp i myter, fiktion och filosofi sedan antiken. AI har varit föremål för en enorm optimism, men har också drabbats av häpnadsväckande motgångar. I dag har AI blivit en viktig del av teknikindustrin och utför de tyngsta uppgifterna kring många av de mest utmanande problemen inom datavetenskapen.[4]

Historik[redigera | redigera wikitext]

Tänkande maskiner och artificiella varelser dyker upp i grekiska myter, såsom Talos på Kreta, en robot av brons skapad av Hefaistos och Pygmalions Galatea. Människoliknande enheter som troddes ha intelligens byggdes i varje större civilisation: animerade kultbilder dyrkades i Egypten och Grekland och humanoida automater byggdes av Yan Shi, hjälte av Alexandria och Al Jazari. Man trodde också att artificiella varelser hade skapats av Geber, Judah Loew och Paracelsus. Under 1800- och 1900-talet hade artificiella varelser blivit ett vanligt inslag i fiktion, som i Mary Shelleys Frankenstein eller Karel Čapek s RUR (Rossum Universal Robots). Pamela McCorduck hävdar att alla dessa är exempel på en gammal drift, som hon beskriver det, "att skapa gudarna". Berättelser om dessa varelser och deras öden beskriver många av samma förhoppningar, rädslor och etiska frågor som presenteras av AI.

Mekaniska eller "formella" resonemang har utvecklats av filosofer och matematiker sedan antiken. Studier av logiska operationer ledde direkt till uppfinningen av den programmerbara digitala elektroniska datorn, baserat på arbetet av matematikern Alan Turing och andra. Turings teori om beräkningar föreslog att en maskin, genom att blanda symboler så enkelt som "0" och "1", kan simulera varje tänkbar handling av matematiska avdrag. Detta, tillsammans med samtidiga upptäckter inom neurologi, informationsteori och cybernetik, inspirerade en liten grupp forskare att börja allvarligt överväga möjligheten att bygga en elektronisk hjärna.[5]

Forskningsområdet AI bildades vid en konferens på universitetsområdet på Dartmouth College sommaren 1956. Deltagarna var John McCarthy, Marvin Minsky, Claude Shannon, Ray Solomonoff, Alan Newell, Herbert Simon, Arthur Samuel, Oliver Selfridge, Nathaniel Rochester och Trenchard More. De blev ledarna inom AI-forskningen under många decennier. De och deras elever skrev program som var, för de flesta människor, helt enkelt häpnadsväckande: datorer vann i damspel, löste ord problem i algebra, bevisade logiska satser och talade engelska. I mitten av 1960-talet var forskningen i USA starkt finansierat av Department of Defense och laboratorier hade upprättats runt om i världen. AI:s grundare var djupt optimistiska om framtiden för det nya fältet. Herbert Simon förutspådde att "maskiner kommer att kunna, inom tjugo år, att göra alla arbeten en människa kan göra" och Marvin Minsky höll med och skrev "inom en generation ... problemet med att skapa AI "kommer i huvudsak att lösas".[6]

De hade misslyckats med att erkänna svårigheten med problem de stod inför. År 1974, som svar på kritiken av Sir James Light och pågående påtryckningar från den amerikanska kongressen för att finansiera mer produktiva projekt, så avbröt de amerikanska och brittiska regeringarna all oriktad grundforskning i AI. De kommande åren skulle senare komma att kallas en "AI-vinter",[7] en period då finansieringen för AI-projekt var svåra att hitta. 

I början av 1980-talet, skedde en renässans för AI-forskningen av den kommersiella framgången för expertsystem, en form av AI-program som simulerade kunskaper och analytiska färdigheter av en eller flera mänskliga experter. År 1985 hade marknaden för AI nått över en miljard dollar. Samtidigt hade Japans femte generations datorprojekt inspirerat de amerikanska och brittiska regeringarna att återställa finansiering för akademisk forskning på området. Men med kollapsen av marknaden för Lisp-maskiner 1987, föll AI återigen i vanrykte, och en andra, längre AI-vinter började. 

Under 1990-talet och i början av 2000-talet, uppnådde AI sina största framgångar, om än något bakom kulisserna. Artificiell intelligens används för logistik, datautvinning, medicinsk diagnos och många andra områden inom hela teknologiindustrin. Framgången berodde på flera faktorer: den ökande datorkraft av datorer (se Moores lag), en större betoning på att lösa specifika delproblem, inrättandet av nya band mellan AI och andra områden som arbetar med liknande problem, och ett nytt åtagande från forskare till fasta matematiska metoder och rigorösa vetenskapliga standarder.

Den 11 maj 1997 blev Deep Blue den första schackspelsdatorn som slog den regerande världsmästaren i schack, Garry Kasparov. I en uppvisningsmatch i Jeopardy! i februari 2011, besegrade IBM: s frågebesvarande system, Watson, de två största Jeopardy-mästarna, Brad Rutter och Ken Jennings, med stor marginal. Kinect, som producerar ett gränssnitt för kroppsrörelse i 3D för Xbox 360 och Xbox One, samt intelligenta personliga assistenter i smartphones, använder algoritmer som kommit fram ur många år av AI-forskning.[8]

AI-pionjärer[redigera | redigera wikitext]

Det finns många forskare som har bidragit till utvecklingen av AI, några nämnvärda personer bortsett från de forskare som deltog i Dartmouth-konferensen (AI-grundarna) är Yann LeCun och Geoffrey Hinton.

AI-vinter[redigera | redigera wikitext]

AI-vinter är en period av minskad finansiering och intresse för AI-forskning. Termen myntades i analogi med idén om en Atomvinter. Området har upplevt flera hajp-perioder. Det fanns två stora AI-vintrar, 1974-1980 och 1987-1993 och flera mindre episoder.

Medvetande[redigera | redigera wikitext]

Det finns inga objektiva kriterier för att veta om en intelligent agent är kännande - att den har medvetna upplevelser. Vi utgår från att andra människor har det, eftersom vi själva har det, och andra säger att de också har det, men det är bara ett subjektivt beslut. Avsaknaden av några hårda kriterier kallas "hårda problemet" i teorin om medvetandet. Problemet gäller inte bara för andra människor, men också för mer intelligenta djur och AI agenter.

Narrow AI[redigera | redigera wikitext]

Narrow AI (weak AI, applied AI, svag AI) är AI som inte uppvisar människo-lik intelligens inom alla områden.[9]

Googles självkörande bil är utrustad med "narrow AI".

Artificiell generell intelligens[redigera | redigera wikitext]

Artificiell generell intelligens (AGI) är en hypotetisk AI som uppvisar människo-lik intelligens, det vill säga, som klarar av att utföra vilken intellektuell uppgift som helst som en människa kan utföra. AGI hänvisas också till som "strong AI" (full AI, stark AI),[10] eller som förmågan att kunna utföra "generella intelligenta handlingar".[11] AI som inte uppvisar människo-lik intelligens inom alla områden anses därför vara "narrow AI". AGI förknippas med egenskaper som medvetande, förnimbarhet, förnuft och självmedvetande.[12]

Förespråkare för AGI menar vidare att intelligens går att återskapa genom programmering, då intelligens i många fall endast ses som komplexitet. En helt annan diskussion inom AI-fältet är den om medvetande är någonting som går att återskapa digitalt.

Superintelligens[redigera | redigera wikitext]

En superintelligens (superintelligence, hyperintelligence) är en hypotetisk agent som besitter en intelligens som vida överträffar de mest lysande och mest begåvade människornas sinnen. "Superintelligens" kan också hänvisa till en form eller grad av intelligens besatt av en sådan agent. Oxford futuristen Nick Bostrom definierar superintelligens som "ett intellekt som är mycket smartare än de bästa mänskliga hjärnorna inom praktiskt taget alla områden, bland annat vetenskaplig kreativitet, allmän visdom och sociala färdigheter."[13]

Vänlig AI[redigera | redigera wikitext]

Termen vänlig AI ("friendly artificial intelligence", friendly AI, FAI) är ett begrepp myntat av Eliezer Yudkowsky för att diskutera superintelligenta artificiella agenter som på ett tillförlitligt sätt implementerar mänskliga värden.[14]

"Friendly" används i detta sammanhang som teknisk terminologi, och plockar ut medel som är säkra och användbara, inte nödvändigtvis "vänliga" i vardaglig mening. I första hand åberopas konceptet i samband med diskussioner om rekursivt självförbättrande artificiella agenter som snabbt exploderar i intelligens, med motiveringen att denna hypotetiska teknik skulle ha en stor, snabb och svårkontrollerade inverkan på det mänskliga samhället.

Teknologisk singularitet[redigera | redigera wikitext]

Huvudartikel: Teknologisk singularitet

Om forskningen kring AGI producerar tillräckligt intelligent programvara, så ska programvaran kunna programmera och förbättra sig. Den förbättrade programvaran skulle bli ännu bättre på att förbättra sig, vilket leder till rekursiv självförbättring. Den nya intelligensen kan således öka exponentiellt och dramatiskt överträffa människor i intelligens. Science fiction-författaren Vernor Vinge namngav detta scenario "singularitet". Teknologisk singularitet är när accelererande framsteg inom teknologier kommer att orsaka en skenande effekt där AI kommer att överstiga mänsklig intellektuell kapacitet och kontroll, vilket radikalt förändrar eller förstör civilisationen. Funktionerna i en sådan intelligens kan vara omöjliga att förstå vilket gör den teknologiska singulariteten till en händelse där man inte vet vad som händer efter, eftersom händelsen är oförutsägbar och obegriplig.[4]

Ray Kurzweil har använt Moores lag (som beskriver den obevekliga exponentiella förbättring av digital teknologi) för att beräkna att stationära datorer kommer att ha samma processorkraft som mänskliga hjärnor år 2029, och förutspår att singulariteten kommer att ske 2045.[15]

Transhumanism[redigera | redigera wikitext]

Huvudartikel: Transhumanism

Robot designern Hans Moravec, cybernetisten Kevin Warwick och uppfinnaren Ray Kurzweil har förutspått att människor och maskiner kommer att gå samman i framtiden som cyborgs som är mer kapabla och kraftfulla än var för sig. Denna idé, som kallas transhumanism, som har rötter i Aldous Huxleys och Robert Ettingers verk, har visats i skönlitteratur också, till exempel i manga, Ghost in the Shell och science fiction-serien Dune.

Edward Fredkin hävdar att "AI är nästa steg i evolutionen", en idé som först föreslogs i Samuel Butlers "Darwin among the Machines" (1863), och har kompletterats av George Dyson i sin bok med samma namn som utgavs 1998.[16]

Etik[redigera | redigera wikitext]

Etiken kring AI (även robotetik) är den del av etiken kring teknologi som är specifik för robotar och andra AI varelser. Ämnet är uppdelat i robotetik; oron med moraliskt beteende hos människor när de utformar, använder och behandlar AI varelser, och maskinetik; oron över det moraliska beteendet hos artificiella moraliska agenter (AMAs).[17]

I Mary Shelleys Frankenstein betraktas etiken kring AI som en nyckelfråga: om man kan skapa en maskin som har intelligens, kan den då också känna? Om den kan känna, har den samma rättigheter som en människa? Idén diskuteras också i modern science fiction, såsom i filmen AI: Artificial Intelligence, där humanoida maskiner har förmågan att känna känslor. Ämnet, som bl.a. kallas "robot- rättigheter", diskuteras för närvarande av till exempel California's Institute for the Future, även om många kritiker anser att diskussionen är för tidig. Ämnet diskuteras djupgående i dokumentärfilmen Plug & Be från 2010.[18]

Filosofi[redigera | redigera wikitext]

Filosofin kring AI försöker besvara frågor som:

  • Kan en maskin agera intelligent? Kan den lösa alla de problem som en människa skulle kunna lösa genom att tänka?
  • Är mänsklig intelligens och maskinintelligens samma sak? Är den mänskliga hjärnan i huvudsak en dator?
  • Kan en maskin ha ett sinne, mentala tillstånd och ett medvetande i samma mening som människor gör? Kan den känna hur saker och ting är?

Dessa frågor återspeglar olika intressen hos bl.a. AI forskare, kognitionsforskare och filosofer. De vetenskapliga svaren på dessa frågor beror på definitionen av "intelligens" och "medvetande" samt vilka sorters "maskiner" man talar om.

Viktiga påståenden inom filosofin kring AI är:

  • Turings "polite convention": Om en maskin beter sig lika intelligent som en människa, är den då lika intelligent som en människa?
  • Dartmouth-förslaget: "Varje aspekt av lärande eller vilken annan egenskap hos intelligens som kan beskrivas så precist att en maskin kan simulera den."
  • Newell och Simons fysiska symbolsystem hypotes: "En fysisk symbolsystem har de nödvändiga och de tillräckliga medel för allmän intelligent handling."
  • Searles Strong AI hypotes: "En lämpligt programmerad dator med rätt in- och utgångar skulle därmed ha ett sinne på exakt samma sätt som människor har sinnen." Searle motsäger detta påstående med sitt tankeexperiment Det kinesiska rummet, som säger att man ska titta in i en datorn och försöka hitta var "sinnet" kan vara någonstans.[19]
  • Hobbes mekanism: "Förnuft är ingenting annat än beräkning.

Kan en maskin visa allmän intelligens?[redigera | redigera wikitext]

Är den möjligt att skapa en maskin som kan lösa alla de problem som människor löser med sin intelligens? Denna fråga definierar omfattningen av vad maskiner kommer att kunna göra i framtiden och styr riktningen av AI forskningen. Det gäller bara beteendet hos maskiner och ignorerar frågor av intresse för psykologer, kognitionsforskare och filosofer; för att besvara denna fråga spelar det ingen roll om en maskin verkligen tänker (som en person tänker) eller bara agerar som att den tänker.

Existentiell risk[redigera | redigera wikitext]

Utveckling av fullständig artificiell intelligens kan innebära slutet för mänskligheten.
Stephen Hawking[20][en 1]

Existentiell risk orsakad av AGI är risken för att framsteg inom AI kan leda till en allvarlig global katastrof, så som mänskligt utdöende. Temat har fått populär uppmärksamhet, särskilt i ljuset av de farhågor från individer som Stephen Hawking, Nick Bostrom,[21] Bill Gates,[22] och Elon Musk.[23] Allvarligheten av olika AI riskscenarier är allmänt debatterat, och vilar på ett antal olösta frågor om den framtida utvecklingen inom datavetenskap.[24]

Stuart Russell och Peter Norvigs Artificial Intelligence: A Modern Approach, standardlärobok inom AI, citerar möjligheten att en AI systems inlärningsfunktion "kan leda till utvecklingen av ett system med ett oavsiktlig beteende" som den allvarligaste existentiella risken från AI-teknik. De citerar stora framsteg inom AI och potentialen för AI att få enorma långsiktiga fördelar eller kostnader.

År 2015 skrevs "Open Letter on Artificial Intelligence", brevet var undertecknat av ett antal ledande AI forskare inom akademi och industri, inklusive Thomas Dietterich, Eric Horvitz, Bart Selman, Francesca Rossi, Yann LeCun och grundarna av Vicarious och Google DeepMind.[25]

Institutioner som Machine Intelligence Research Institute, Future of Humanity Institute, Future of Life Institute, Centre for the Study of Existential Risk, och OpenAI är för närvarande involverade i att mildra existentiell risk från AGI, till exempelvis genom att forska om vänlig AI.[26]

AI-övertagande[redigera | redigera wikitext]

AI-övertagande (AI takeover) avser ett hypotetiskt scenario där AI blir den dominerande formen av intelligens på jorden. Ett scenario där den mänskliga rasen förlorar kontrollen över planeten medan datorer eller robotar effektivt tar kontrollen över den. Tänkbara scenarier inkluderar övertagandet av en superintelligent AI och den populära föreställningen om en robotuppror. Robotuppror har varit ett huvudtema i science fiction i många årtionden, men de scenarier som behandlas av science fiction är i allmänhet mycket annorlunda från de rädslor som forskare har.

Vidare läsning[redigera | redigera wikitext]

Se även[redigera | redigera wikitext]

Referenser[redigera | redigera wikitext]

Den här artikeln är helt eller delvis baserad på material från engelskspråkiga Wikipedia, Artificial intelligence, 12 juni 2016.


Noter[redigera | redigera wikitext]

  1. ^ ”WHAT IS ARTIFICIAL INTELLIGENCE?”. www-formal.stanford.edu. http://www-formal.stanford.edu/jmc/whatisai/whatisai.html. Läst 14 december 2015. 
  2. ^ ”Machines Who Think”. www.pamelamc.com. http://www.pamelamc.com/html/machines_who_think.html. Läst 15 december 2015. 
  3. ^ ”Computational Intelligence: A Logical Approach”. www.cs.ubc.ca. http://www.cs.ubc.ca/~poole/ci.html. Läst 15 december 2015. 
  4. ^ [a b] ”Artificial Intelligence: A Modern Approach”. aima.cs.berkeley.edu. http://aima.cs.berkeley.edu/. Läst 15 december 2015. 
  5. ^ ”Machines Who Think”. www.pamelamc.com. http://www.pamelamc.com/html/machines_who_think.html. Läst 14 december 2015. 
  6. ^ ”A Brief History of Artificial Intelligence”. LiveScience.com. http://www.livescience.com/49007-history-of-artificial-intelligence.html. Läst 14 december 2015. 
  7. ^ ”Artificial Intelligence: A Modern Approach”. aima.cs.berkeley.edu. http://aima.cs.berkeley.edu/. Läst 14 december 2015. 
  8. ^ ”Virtual Personal Assistants & The Future Of Your Smartphone [Infographic”]. http://readwrite.com/2013/01/15/virtual-personal-assistants-the-future-of-your-smartphone-infographic. Läst 14 december 2015. 
  9. ^ ”Strong vs. Weak AI - CRA”. www.math.nyu.edu. http://www.math.nyu.edu/~neylon/cra/strongweak.html. Läst 14 december 2015. 
  10. ^ (Kurzweil 2005, s. 260) eller se Advanced Human Intelligence där han definierar stark AI som "maskinintelligence med hela vidden av mänsklig intelligens."
  11. ^ Newell & Simon 1976
  12. ^ ”How close are we to creating artificial intelligence? — David Deutsch — Aeon Essays”. Aeon. https://aeon.co/essays/how-close-are-we-to-creating-artificial-intelligence. Läst 14 december 2015. 
  13. ^ ”How long before superintelligence?”. www.nickbostrom.com. http://www.nickbostrom.com/superintelligence.html. Läst 14 december 2015. 
  14. ^ ”Yudkowsky - AI and Global Risk”. www.yudkowsky.net. http://www.yudkowsky.net/singularity/ai-risk. Läst 14 december 2015. 
  15. ^ Cadwalladr, Carole. ”Are the robots about to rise? Google's new director of engineering thinks so…”. the Guardian. http://www.theguardian.com/technology/2014/feb/22/robots-google-ray-kurzweil-terminator-singularity-artificial-intelligence. Läst 15 december 2015. 
  16. ^ ”Darwin Among the Machines — [To the Editor of the Press, Christchurch, New Zealand, 13 June, 1863. | NZETC”]. nzetc.victoria.ac.nz. http://nzetc.victoria.ac.nz/tm/scholarly/tei-ButFir-t1-g1-t1-g1-t4-body.html. Läst 15 december 2015. 
  17. ^ ”The Ethics of Artificial Intelligence”. webcache.googleusercontent.com. http://webcache.googleusercontent.com/search?q=cache:WuNnMDq6lhcJ:www.nickbostrom.com/ethics/artificial-intelligence.pdf+&cd=1&hl=sv&ct=clnk&gl=se. Läst 15 december 2015. 
  18. ^ ”Content: Plug & Pray Film - Artificial Intelligence - Robots - [[[maschafilm]]”]. www.plugandpray-film.de. http://www.plugandpray-film.de/en/content.html. Läst 15 december 2015. 
  19. ^ Cole, David (2015-01-01). Edward N. Zalta. red. The Chinese Room Argument (Winter 2015). http://plato.stanford.edu/archives/win2015/entries/chinese-room/. Läst 2015-12-15 
  20. ^ ”Stephen Hawking warns artificial intelligence could end mankind - BBC News” (på en-GB). BBC News. http://www.bbc.com/news/technology-30290540. Läst 15 december 2015. 
  21. ^ ”The Doomsday Invention”. The New Yorker. http://www.newyorker.com/magazine/2015/11/23/doomsday-invention-artificial-intelligence-nick-bostrom. Läst 15 december 2015. 
  22. ^ ”Why Stephen Hawking and Bill Gates Are Terrified of Artificial Intelligence”. The Huffington Post. http://www.huffingtonpost.com/james-barrat/hawking-gates-artificial-intelligence_b_7008706.html. Läst 15 december 2015. 
  23. ^ Gibbs, Samuel. ”Elon Musk: artificial intelligence is our biggest existential threat”. the Guardian. http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat. Läst 15 december 2015. 
  24. ^ ”Potential risks from advanced artificial intelligence | GiveWell”. GiveWell. http://www.givewell.org/labs/causes/ai-risk. Läst 14 december 2015. 
  25. ^ ”FLI - Future of Life Institute | AI Open Letter”. futureoflife.org. http://futureoflife.org/misc/open_letter. Läst 14 december 2015. 
  26. ^ ”But What Would the End of Humanity Mean for Me?” (på en-US). The Atlantic. https://plus.google.com/109258622984321091629. http://www.theatlantic.com/health/archive/2014/05/but-what-does-the-end-of-humanity-mean-for-me/361931/. Läst 14 december 2015. 

Originalcitat[redigera | redigera wikitext]

  1. ^ ”The development of full artificial intelligence could spell the end of the human race.”

Externa länkar[redigera | redigera wikitext]