Openai

Från Wikipedia
Hoppa till navigering Hoppa till sök
OpenAI
Bildad11 december, 2015
GrundareElon Musk, Sam Altman m.fl
TypIdeell organisation
Syfte/fokusArtificiell intelligens
PlatsSan Francisco, Kalifornien, USA
Budget1 miljard USD (2015)
Webbplatswww.openai.com

OpenAI är ett ideellt forskningsbolag som inriktar sig på artificiell intelligens (AI). Företaget siktar på att avancera "vänlig AI". Med andra ord, att övervaka utvecklingen av "människo-lik intelligens" för att säkerställa ett resultat som gynnar hela mänskligheten och undviker globala katastrofrisker.[1] Ett annat mål är att förhindra företag och regeringar från att få för mycket makt genom dem som använder avancerad AI, och i stället se till att fördelarna med AI delas lika.[2][3] För att nå det målet syftar organisationen till att "fritt samarbeta" med andra institutioner.[4]

Företagarna Elon Musk och Sam Altman är ordförande i OpenAI. Tidigare forskare vid Google, Ilya Sutskever är forskningschef.[5] Tidigare Stripe CTO Greg Brockman är CTO.[6] Företaget stöds av 1 miljard amerikanska dollar i åtaganden, bland annat genom Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys och YC Research.

Produkter och applikationer[redigera | redigera wikitext]

OpenAI:s forskning tenderar att fokusera på förstärkningsinlärning. OpenAI ses som en konkurrent till DeepMind.[7]

Gym[redigera | redigera wikitext]

Gym syftar till att tillhandahålla ett riktmärke för allmän intelligens som är lätt att installera med en mängd olika miljöer – något liknande, men bredare än, ImageNet storskalig utmaning för visuell igenkänning som används i övervakad inlärningsforskning – och som hoppas kunna standardisera sättet där miljöer definieras i AI-forskningspublikationer, så att publicerad forskning blir lättare reproducerbar.[8][9] Projektet gör anspråk på att ge användaren ett enkelt gränssnitt. Från och med juni 2017 kan Gym endast användas med Python.[10] Från och med september 2017 upprätthölls inte dokumentationssidan för gym, och det aktiva arbetet fokuserade istället på dess GitHub-sida.[11]

RoboSumo[redigera | redigera wikitext]

I "RoboSumo" saknar virtuella humanoida "metainlärning-robotar saknar initialt kunskap om hur man går, och med tanke på målen att lära sig att röra sig och knuffa ut den motsatta agenten ur ringen. Genom denna kontradiktoriska inlärningsprocess lär sig agenterna hur man anpassar sig till förändrade förhållanden; när en agent sedan avlägsnas från denna virtuella miljö och placeras i en ny virtuell miljö med kraftiga vindar, ställer sig agenten upp för att förbli upprätt, vilket tyder på att den hade lärt sig att balansera på ett generaliserat sätt.[12][13] OpenAI:s Igor Mordatch hävdar att konkurrens mellan agenter kan skapa en intelligens "kapprustning" som kan öka en agents förmåga att fungera, även utanför konkurrensens sammanhang.

Debattspel[redigera | redigera wikitext]

2018 lanserade OpenAI Debate Game, som lär maskiner att diskutera leksaksproblem inför en mänsklig domare. Syftet är att undersöka om ett sådant tillvägagångssätt kan hjälpa till att granska AI-beslut och att utveckla förklarlig AI.[14][15]

Dactyl[redigera | redigera wikitext]

Dactyl använder maskininlärning för att träna en robot Shadow Hand från grunden, med samma kod för förstärkningsinlärning som OpenAI Five använder. Robothanden tränas helt i fysiskt inexakt simulering.[16][17]

Skriva upp[redigera | redigera wikitext]

La «IA» på baksidan av «Writeup» visar en enorm och imponerande mångsidighet, som låter dig fortsätta tematiska texter, som Game of Thrones eller Harry Potter, följa temat i en vetenskaplig artikel, skapa kompositioner tillsammans med användaren med hjälp av externt innehåll av till exempel sånger. På ett sådant sätt att det kan erbjuda en bra lista över möjligheter att fortsätta med vilken text som helst, med eller utan användarens ingripande.[18]

Generativa modeller[redigera | redigera wikitext]

GPT[redigera | redigera wikitext]

Den ursprungliga artikeln om generativ förträning (GPT) av en språkmodell skrevs av Alec Radford och kollegor och publicerades i preprint på OpenAI:s webbplats den 11 juni 2018.[19] Den visade hur en generativ språkmodell kan förvärva världskunskap och bearbeta långväga beroenden genom förträning på en mångsidig korpus med långa sträckor av sammanhängande text.

GPT-2[redigera | redigera wikitext]

Generative Pre-trained Transformer 2, allmänt känd genom sin förkortade form GPT-2, är en oövervakad transformatorspråkmodell och efterföljaren till GPT. GPT-2 tillkännagavs först i februari 2019, med endast begränsade demonstrationsversioner som initialt släpptes för allmänheten. Den fullständiga versionen av GPT-2 släpptes inte omedelbart av oro över potentiellt missbruk, inklusive ansökningar om att skriva falska nyheter.[20] Vissa experter uttryckte skepsis mot att GPT-2 utgjorde ett betydande hot. Allen Institute for Artificial Intelligence svarade på GPT-2 med ett verktyg för att upptäcka "neurala falska nyheter".[21] Andra forskare, som Jeremy Howard, varnade för "tekniken för att helt och hållet fylla Twitter, e-post och webben med rimligt klingande, kontextanpassad prosa, som skulle dränka allt annat tal och vara omöjligt att filtrera".[22] I november 2019 släppte OpenAI den fullständiga versionen av språkmodellen GPT-2.[23] Flera webbplatser är värd för interaktiva demonstrationer av olika instanser av GPT-2 och andra transformatormodeller.[24][25][26]

GPT-2:s författare hävdar att språkmodeller utan tillsyn är inlärare för allmänt bruk, vilket illustreras av att GPT-2 uppnår toppmodern precision och förvirring på 7 av 8 nollskjutsuppgifter (dvs modellen tränades inte vidare på någon uppgift -specifika input-output exempel). Korpusen den utbildades på, kallad WebText, innehåller drygt 8 miljoner dokument för totalt 40 GB text från webbadresser som delas i Reddit-inlämningar med minst 3 uppröstningar. Det undviker vissa problem med att koda ordförråd med ordtokens genom att använda byteparkodning. Detta gör det möjligt att representera vilken sträng av tecken som helst genom att koda både individuella tecken och tokens med flera tecken.[27]

GPT-3[redigera | redigera wikitext]

Generative Pre-trained Transformer 3, allmänt känd genom sin förkortade form GPT-3, är en oövervakad Transformer-språkmodell och efterföljaren till GPT-2. Den beskrevs första gången i maj 2020.[28][29] OpenAI uppgav att den fullständiga versionen av GPT-3 innehåller 175 miljarder parametrar, två storleksordningar större än de 1,5 miljarder parametrar[19] i den fullständiga versionen av GPT-2 (även om GPT-3-modeller med så få som 125 miljoner parametrar tränades också).[30]

OpenAI uppgav att GPT-3 lyckas med vissa "meta-lärande" uppgifter. Det kan generalisera syftet med ett enda in-out-par. Uppsatsen ger ett exempel på översättning och tvärspråklig överföring av lärande mellan engelska och svenska, och mellan engelska och tyska.[20][31]

GPT-3 förbättrade avsevärt benchmarkresultat jämfört med GPT-2. OpenAI varnade för att en sådan uppskalning av språkmodeller kan närma sig eller stöta på de grundläggande kapacitetsbegränsningarna hos prediktiva språkmodeller. Förträning av GPT-3 krävde flera tusen petaflop/s-dagar beräkning, jämfört med tiotals petaflop/s-dagar för hela GPT-2-modellen. Liksom sin föregångare släpptes GPT-3:s fullt utbildade modell inte omedelbart till allmänheten på grund av eventuellt missbruk, även om OpenAI planerade att tillåta åtkomst via ett betald moln-API efter en två månader lång gratis privat beta som började i juni 2020.[32][33]

Den 23 september 2020 licensierades GPT-3 exklusivt till Microsoft.[34][35]

Music[redigera | redigera wikitext]

OpenAIs MuseNet (2019) är ett djupt neuralt nät som tränats för att förutsäga efterföljande musikaliska toner i MIDI-musikfiler. Den kan generera låtar med tio olika instrument i femton olika stilar. Enligt The Verge tenderar en låt som genereras av MuseNet att börja rimligt men sedan hamna i kaos ju längre den spelas.[36][37]

OpenAIs Jukebox (2020) är en öppen källkodsalgoritm för att generera musik med sång. Efter att ha tränat på 1,2 miljoner samplingar, accepterar systemet en genre, artist och ett stycke text och matar ut låtprover. OpenAI konstaterade att låtarna "visar lokal musikalisk koherens, följer traditionella ackordmönster" men erkände att låtarna saknar "bekanta större musikaliska strukturer som refränger som upprepas" och att "det finns en betydande klyfta" mellan Jukebox och mänskligt genererad musik. The Verge sa "Det är tekniskt imponerande, även om resultaten låter som sörjiga versioner av låtar som kan kännas bekanta", medan Business Insider sa "överraskande nog är några av de resulterande låtarna catchy och låter legitima".[38][39][40]

API[redigera | redigera wikitext]

I juni 2020 tillkännagav OpenAI ett multifunktions-API som det sa var "för att komma åt nya AI-modeller utvecklade av OpenAI" för att låta utvecklare kalla på det för "alla engelska AI-uppgifter.[41][42]

DALL-E och CLIP[redigera | redigera wikitext]

DALL-E är en transformatormodell som skapar bilder från textbeskrivningar, avslöjade av OpenAI i januari 2021.[43]

CLIP gör tvärtom: det skapar en beskrivning för en given bild.[44] DALL-E använder en version med 12 miljarder parametrar av GPT-3 för att tolka naturliga språkinmatningar (som "en grön läderväska formad som en femhörning" eller "en isometrisk vy av en sorglig kapybara") och generera motsvarande bilder. Den kan skapa bilder av realistiska föremål ("ett målat glasfönster med en bild av en blå jordgubbe") såväl som föremål som inte finns i verkligheten ("en kub med strukturen av ett piggsvin"). Från och med mars 2021 finns inget API eller kod tillgänglig.[45]

Microscope[redigera | redigera wikitext]

OpenAI Microscope[46] är en samling visualiseringar av varje betydande lager och neuron av åtta olika neurala nätverksmodeller som ofta studeras i tolkningsbarhet. Mikroskop skapades för enkel analys av funktionerna som bildas i dessa neurala nätverk. Modellerna som ingår är AlexNet, VGG 19, olika versioner av Inception och olika versioner av CLIP Resnet.[46]

Codex[redigera | redigera wikitext]

OpenAI Codex är en ättling till GPT-3 som dessutom har tränats på kod från 54 miljoner GitHub-repositories.[47][48] Det tillkännagavs i mitten av 2021 som AI som driver kodautokompletteringsverktyget GitHub Copilot.[48] I augusti 2021 släpptes ett API i privat beta. Enligt OpenAI kan modellen skapa arbetskod i över ett dussin programmeringsspråk, mest effektivt i Python.[47]

Flera problem med fel, designbrister och säkerhetsbrister har tagits upp.[49][50]

Externa länkar[redigera | redigera wikitext]

Referenser[redigera | redigera wikitext]

Den här artikeln är helt eller delvis baserad på material från engelskspråkiga Wikipedia, OpenAI, 23 juni 2016.

Noter[redigera | redigera wikitext]

  1. ^ ”Elon Musk And Peter Thiel Launch OpenAI, A Non-Profit Artificial Intelligence Research Company”. Forbes. http://www.forbes.com/sites/theopriestley/2015/12/11/elon-musk-and-peter-thiel-launch-openai-a-non-profit-artificial-intelligence-research-company/. Läst 14 december 2015. 
  2. ^ ”Elon Musk's New Billion-Dollar Project To Stop Computers From Turning Evil”. The Huffington Post. http://www.huffingtonpost.com/entry/openai-elon-musk-artificial-intelligence_566b6ecce4b0fccee16ebcd8. Läst 14 december 2015. 
  3. ^ ”How Elon Musk and Y Combinator Plan to Stop Computers From Taking Over — Backchannel”. Medium. https://medium.com/backchannel/how-elon-musk-and-y-combinator-plan-to-stop-computers-from-taking-over-17e0e27dd02a. Läst 14 december 2015. 
  4. ^ ”New ‘OpenAI’ Artificial Intelligence Group Formed By Elon Musk, Peter Thiel, And More”. Popular Science. http://www.popsci.com/new-openai-artificial-intelligence-group-formed-by-elon-musk-peter-thiel-and-more. Läst 14 december 2015. 
  5. ^ ”Elon Musk just announced a new artificial intelligence research company”. Tech Insider. http://www.techinsider.io/elon-musk-just-announced-a-new-artificial-intelligence-research-company-2015-12. Läst 14 december 2015. 
  6. ^ Olanoff, Drew. ”Artificial Intelligence Nonprofit OpenAI Launches With Backing From Elon Musk And Sam Altman”. http://social.techcrunch.com/2015/12/11/non-profit-openai-launches-with-backing-from-elon-musk-and-sam-altman/. Läst 14 december 2015. 
  7. ^ ”Robot hand solves Rubik’s cube, but not the grand challenge” (på brittisk engelska). BBC News. 15 oktober 2019. https://www.bbc.com/news/technology-50064225. Läst 27 december 2021. 
  8. ^ By (18 mars 2019). ”Elon Musk's Artificial Intelligence Group Opens A 'Gym' To Train A.I.” (på amerikansk engelska). Popular Science. https://www.popsci.com/elon-musks-artificial-intelligence-group-opens-gym-to-train-ai/. Läst 27 december 2021. 
  9. ^ ”OpenAI Gym Beta” (på engelska). OpenAI. 28 april 2016. https://openai.com/blog/openai-gym-beta/. Läst 27 december 2021. 
  10. ^ OpenAI. ”Gym: A toolkit for developing and comparing reinforcement learning algorithms”. gym.openai.com. Arkiverad från originalet den 28 januari 2019. https://web.archive.org/web/20190128083037/https://gym.openai.com/. Läst 27 december 2021. 
  11. ^ ”https://twitter.com/gdb/status/907855318591438848”. Twitter. https://twitter.com/gdb/status/907855318591438848. Läst 27 december 2021. 
  12. ^ Simonite, Tom. ”AI Sumo Wrestlers Could Make Future Robots More Nimble” (på amerikansk engelska). Wired. ISSN 1059-1028. https://www.wired.com/story/ai-sumo-wrestlers-could-make-future-robots-more-nimble/. Läst 27 december 2021. 
  13. ^ ”OpenAI’s Goofy Sumo-Wrestling Bots Are Smarter Than They Look” (på engelska). MIT Technology Review. https://www.technologyreview.com/2017/10/12/148618/openais-goofy-sumo-wrestling-bots-are-smarter-than-they-look/. Läst 27 december 2021. 
  14. ^ Greene, Tristan (4 maj 2018). ”OpenAI's Debate Game teaches you and your friends how to lie like robots” (på engelska). TNW | Artificial-Intelligence. https://thenextweb.com/news/openais-debate-game-teaches-you-and-your-friends-how-to-lie-like-robots. Läst 27 december 2021. 
  15. ^ Melendez, Steven (8 maj 2018). ”Why Scientists Think AI Systems Should Debate Each Other” (på amerikansk engelska). Fast Company. https://www.fastcompany.com/40569116/why-scientists-think-ai-systems-should-debate-each-other. Läst 27 december 2021. 
  16. ^ ”Learning Dexterity” (på engelska). OpenAI. 30 juli 2018. https://openai.com/blog/learning-dexterity/. Läst 27 december 2021. 
  17. ^ Ryan, Mae; Metz, Cade; Taylor, Rumsey (30 juli 2018). ”How Robot Hands Are Evolving to Do What Ours Can” (på amerikansk engelska). The New York Times. ISSN 0362-4331. https://www.nytimes.com/interactive/2018/07/30/technology/robot-hands.html,%20https://www.nytimes.com/interactive/2018/07/30/technology/robot-hands.html. Läst 27 december 2021. 
  18. ^ Install, Linux Post (25 september 2019). ”OpenAI: Artificiell intelligensprojekt gratis och öppet för alla”. Desde Linux. https://blog.desdelinux.net/sv/openai-projekterar-artificiell-intelligens-%C3%B6ppen-k%C3%A4llkod/. Läst 27 december 2021. 
  19. ^ [a b] Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever (27 december 2021). ”Improving Language Understanding by Generative Pre-Training”. https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf. 
  20. ^ [a b] ”New AI fake text generator may be too dangerous to release, say creators” (på engelska). the Guardian. 14 februari 2019. http://www.theguardian.com/technology/2019/feb/14/elon-musk-backed-ai-writes-convincing-news-fiction. Läst 27 december 2021. 
  21. ^ ”Could ‘fake text’ be the next global political threat?” (på engelska). the Guardian. 4 juli 2019. http://www.theguardian.com/technology/2019/jul/04/ai-fake-text-gpt-2-concerns-false-information. Läst 27 december 2021. 
  22. ^ Vincent, James (14 februari 2019). ”OpenAI’s new multitalented AI writes, translates, and slanders” (på engelska). The Verge. https://www.theverge.com/2019/2/14/18224704/ai-machine-learning-language-models-read-write-openai-gpt2. Läst 27 december 2021. 
  23. ^ ”GPT-2: 1.5B Release” (på engelska). OpenAI. 5 november 2019. https://openai.com/blog/gpt-2-1-5b-release/. Läst 27 december 2021. 
  24. ^ ”Write With Transformer”. transformer.huggingface.co. https://transformer.huggingface.co/. Läst 27 december 2021. 
  25. ^ ”InferKit”. app.inferkit.com. https://app.inferkit.com/demo. Läst 27 december 2021. 
  26. ^ ”Creative Engines”. creativeengines.ai. https://creativeengines.ai/index.html. Läst 27 december 2021. 
  27. ^ Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskeve (27 december 2021). ”Language Models are Unsupervised Multitask Learners”. https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf. 
  28. ^ ”GPT-3: Language Models are Few-Shot Learners”. OpenAI. 27 december 2021. https://github.com/openai/gpt-3. Läst 27 december 2021. 
  29. ^ ”OpenAI Releases GPT-3, The Largest Model So Far” (på amerikansk engelska). Analytics India Magazine. 3 juni 2020. https://analyticsindiamag.mystagingwebsite.com/open-ai-gpt-3-language-model/. Läst 27 december 2021. 
  30. ^ ”Difference Between Chat GPT and GPT 3”. opChatgpt. https://opchatgpt.com/difference-between-chat-gpt-and-gpt-3/. Läst 2 februari 2023. 
  31. ^ ”(TF)² #2 - Svensk textgenerering och GPT-3”. Tenfifty. 12 februari 2021. https://tenfifty.io/sv/tf²-2-svensk-textgenerering-och-gpt-3/. Läst 27 december 2021. 
  32. ^ ”OpenAI API” (på engelska). OpenAI. 11 juni 2020. https://openai.com/blog/openai-api/. Läst 27 december 2021. 
  33. ^ Eadicicco, Lisa. ”The artificial intelligence company that Elon Musk helped found is now selling the text-generation software it previously said was too dangerous to launch” (på amerikansk engelska). Business Insider. https://www.businessinsider.com/elon-musk-openai-sell-text-tool-it-said-was-dangerous-2020-6. Läst 27 december 2021. 
  34. ^ ”OpenAI is giving Microsoft exclusive access to its GPT-3 language model” (på engelska). MIT Technology Review. https://www.technologyreview.com/2020/09/23/1008729/openai-is-giving-microsoft-exclusive-access-to-its-gpt-3-language-model/. Läst 27 december 2021. 
  35. ^ ”Microsoft gets exclusive license for OpenAI’s GPT-3 language model” (på amerikansk engelska). VentureBeat. 22 september 2020. https://venturebeat.com/2020/09/22/microsoft-gets-exclusive-license-for-openais-gpt-3-language-model/. Läst 27 december 2021. 
  36. ^ Porter, Jon (26 april 2019). ”OpenAI’s MuseNet generates AI music at the push of a button” (på engelska). The Verge. https://www.theverge.com/2019/4/26/18517803/openai-musenet-artificial-intelligence-ai-music-generation-lady-gaga-harry-potter-mozart. Läst 27 december 2021. 
  37. ^ ”MuseNet” (på engelska). OpenAI. 25 april 2019. https://openai.com/blog/musenet/. Läst 27 december 2021. 
  38. ^ Stephen, Bijan (30 april 2020). ”OpenAI introduces Jukebox, a new AI model that generates genre-specific music” (på engelska). The Verge. https://www.theverge.com/2020/4/30/21243038/openai-jukebox-model-raw-audio-lyrics-ai-generated-copyright. Läst 27 december 2021. 
  39. ^ Leskin, Paige. ”This AI is creating some surprisingly good bops based on music by Katy Perry and Kanye West — listen to some of the best” (på amerikansk engelska). Business Insider. https://www.businessinsider.com/jukebox-ai-music-generator-realistic-songs-machine-learning-algorithm-deepfakes-2020-5. Läst 27 december 2021. 
  40. ^ ”Jukebox” (på engelska). OpenAI. 30 april 2020. https://openai.com/blog/jukebox/. Läst 27 december 2021. 
  41. ^ ”OpenAI API” (på engelska). OpenAI. 11 juni 2020. https://openai.com/blog/openai-api/. Läst 27 december 2021. 
  42. ^ ”OpenAI makes an all-purpose API for its text-based AI capabilities” (på amerikansk engelska). TechCrunch. https://social.techcrunch.com/2020/06/11/openai-makes-an-all-purpose-api-for-its-text-based-ai-capabilities/. Läst 27 december 2021. 
  43. ^ ”DALL·E: Creating Images from Text” (på engelska). OpenAI. 5 januari 2021. https://openai.com/blog/dall-e/. Läst 27 december 2021. 
  44. ^ ”CLIP: Connecting Text and Images” (på engelska). OpenAI. 5 januari 2021. https://openai.com/blog/clip/. Läst 27 december 2021. 
  45. ^ ”Multimodal Neurons in Artificial Neural Networks” (på engelska). OpenAI. 4 mars 2021. https://openai.com/blog/multimodal-neurons/. Läst 27 december 2021. 
  46. ^ [a b] ”OpenAI Microscope” (på engelska). OpenAI. 14 april 2020. https://openai.com/blog/microscope/. Läst 27 december 2021. 
  47. ^ [a b] ”OpenAI Announces 12 Billion Parameter Code-Generation AI Codex” (på engelska). InfoQ. https://www.infoq.com/news/2021/08/openai-codex/. Läst 27 december 2021. 
  48. ^ [a b] ”OpenAI warns AI behind GitHub’s Copilot may be susceptible to bias” (på amerikansk engelska). VentureBeat. 8 juli 2021. https://venturebeat.com/2021/07/08/openai-warns-ai-behind-githubs-copilot-may-be-susceptible-to-bias/. Läst 27 december 2021. 
  49. ^ ”What to expect from OpenAI’s Codex API” (på amerikansk engelska). VentureBeat. 16 augusti 2021. https://venturebeat.com/2021/08/16/what-to-expect-from-openais-codex-api/. Läst 27 december 2021. 
  50. ^ Francisco, Thomas Claburn in San. ”GitHub's Copilot may steer you into dangerous waters about 40% of the time – study” (på engelska). www.theregister.com. https://www.theregister.com/2021/08/25/github_copilot_study/. Läst 27 december 2021.