Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

Konstgjord intelligens: den fjärde industriella revolutionen
Konstgjord intelligens: den fjärde industriella revolutionen
Konstgjord intelligens: den fjärde industriella revolutionen
Ebook448 pages5 hours

Konstgjord intelligens: den fjärde industriella revolutionen

Rating: 0 out of 5 stars

()

Read preview

About this ebook

Den fjärde industriella revolutionen representerar en grundläggande förändring i vårt sätt att leva, arbeta och förhålla oss till varandra. Det är ett nytt kapitel i mänsklig utveckling, som möjliggörs av extraordinära tekniska framsteg som motsvarar de första, andra och tredje industriella revolutionerna. Dessa framsteg slår samman de fysiska, digitala och biologiska världarna på sätt som skapar både stort löfte och potentiell risk. Hastigheten, bredden och djupet i denna revolution tvingar oss att tänka om hur länder utvecklas, hur organisationer skapar värde och till och med vad det betyder att vara mänskliga. Konstgjord intelligens idag kallas ordentligt smal AI (eller svag AI), ioch med att den är utformad för att utföra en smal uppgift (t.ex. endast ansiktsigenkänning eller endast internetsökningar eller bara körabil). Men det långsiktiga målet för många forskare är att skapa allmän AI (AGI eller stark AI). Även om smala AI kan överträffa människor på vad som helst i dess specifika uppgift, som att spela schack eller lösa ekvationer, skulle AGI överträffa människor vid nästan varje kognitiv uppgift.
Authors: Peter Skalfist, Daniel Mikelsten, Vasil Teigens

LanguageSvenska
Release dateSep 15, 2020
ISBN9781005752439
Konstgjord intelligens: den fjärde industriella revolutionen
Author

Peter Skalfist

Peter Skalfist, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Related authors

Related to Konstgjord intelligens

Related ebooks

Reviews for Konstgjord intelligens

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    Konstgjord intelligens - Peter Skalfist

    Introduktion

    Den fjärde industriella revolutionen representerar en grundläggande förändring i vårt sätt att leva, arbeta och förhålla oss till varandra. Det är ett nytt kapitel i mänsklig utveckling, som möjliggörs av extraordinära tekniska framsteg som motsvarar de första, andra och tredje industriella revolutionerna. Dessa framsteg slår samman de fysiska, digitala och biologiska världarna på sätt som skapar både stort löfte och potentiell risk. Hastigheten, bredden och djupet i denna revolution tvingar oss att tänka om hur länder utvecklas, hur organisationer skapar värde och till och med vad det betyder att vara mänskliga.

    Från SIRI till självkörande bilar utvecklas artificiell intelligens (AI) snabbt. Medan science fiction ofta porträtterar AI som robotar med mänskliga-liknande egenskaper, kan AI omfatta allt från Googles sökalgoritmer till IBMs Watson till autonoma vapen.

    Konstgjord intelligens idag kallas ordentligt smal AI (eller svag AI), i och med att den är utformad för att utföra en smal uppgift (t.ex. endast ansiktsigenkänning eller endast internetsökningar eller bara köra bil). Men det långsiktiga målet för många forskare är att skapa allmän AI (AGI eller stark AI). Även om smala AI kan överträffa människor på vad som helst i dess specifika uppgift, som att spela schack eller lösa ekvationer, skulle AGI överträffa människor vid nästan varje kognitiv uppgift.

    Den fjärde industriella revolutionen handlar om mer än bara teknikdriven förändring; Det är en möjlighet att hjälpa alla, inklusive ledare, beslutsfattare och människor från alla inkomstgrupper och nationer, att utnyttja konvergerande tekniker för att skapa en inkluderande, mänsklig centrerad framtid. Den verkliga möjligheten är att titta bortom tekniken och hitta sätt att ge det största antalet människor förmågan att påverka deras familjer, organisationer och samhällen positivt.

    Konstgjord allmän intelligens

    Artificiell allmän intelligens (AGI) är intelligensen för en maskin som kan förstå eller lära sig alla intellektuella uppgifter som en människa kan. Det är ett primärt mål för viss konstgjord intelligensforskning och ett vanligt ämne inom science fiction och futuresstudier. AGI kan också kallas stark AI, full AI eller generell intelligent handling. (Vissa akademiska källor reserverar termen stark AI för maskiner som kan uppleva medvetande.). Vissa myndigheter betonar skillnaden mellan stark AI och tillämpad AI (även kallad smal AI eller svag AI): användningen av programvara för att studera eller utföra specifika problemlösnings- eller resonemangsuppgifter. I motsats till stark AI försöker inte svag AI utföra hela människans kognitiva förmåga.

    Olika kriterier för intelligens har föreslagits (mest känt Turing-testet) men hittills finns det ingen definition som uppfyller alla. Men det finns en bred överenskommelse bland forskare av konstgjord intelligens om att intelligens krävs för att göra följande:

    Resonera, använda strategi, lösa pussel och göra bedömningar under osäkerhet;

    Representera kunskap, inklusive allmän kunskap;

    Planen;

    Lära sig;

    Kommunicera på naturligt språk;

    Och integrera alla dessa färdigheter mot gemensamma mål.

    Andra viktiga funktioner inkluderar förmågan att känna (t.ex. se) och förmågan att agera (t.ex. flytta och manipulera föremål) i världen där intelligent beteende ska observeras. Detta skulle inkludera en förmåga att upptäcka och svara på faror. Många tvärvetenskapliga tillvägagångssätt för intelligens (t.ex. kognitiv vetenskap, beräkningsintelligens och beslutsfattande) tenderar att betona behovet av att överväga ytterligare drag som fantasi (som förmågan att bilda mentala bilder och begrepp som inte var programmerade i) och autonomi. system som uppvisar många av dessa funktioner finns (t.ex. se beräkningskreativitet, automatiserad resonemang, beslutssupportsystem, robot, evolutionär beräkning, intelligent agent), men ännu inte på mänskliga nivåer.

    Tester för att bekräfta AGI på mänsklig nivå

    Turing-testet (Turing) En maskin och en människa pratar båda synen osynliga med en andra människa, som måste utvärdera vilken av de två som är maskinen, som klarar testet om det kan lura utvärderaren en betydande bråkdel av tiden. Obs: Turing föreskriver inte vad som ska betecknas som intelligens, bara att veta att det är en maskin bör diskvalificera det. Kaffetestet (Wozniak) En maskin krävs för att komma in i ett genomsnittligt amerikanskt hem och ta reda på hur man gör kaffe: hitta kaffemaskinen, hitta kaffet, tillsätt vatten, hitta en mugg och brygg kaffet genom att trycka på rätt knappar. Robot College Student Test (Goertzel) En maskin registrerar sig på ett universitet, tar och passerar samma klasser som människor skulle göra och får en examen. Anställningstestet (Nilsson) En maskin arbetar ett ekonomiskt viktigt jobb och utför minst lika bra som människor i samma jobb.

    IQ-test AGI

    Chineseresearchers Feng Liu, Yong Shi och Ying Liu genomförde underrättelsetester sommaren 2017 med allmänt tillgängligt och fritt tillgängligt svagt AI som Google AI eller Apples Siri och andra. Maximalt nådde dessa AI ett värde på cirka 47, vilket motsvarar ungefär ett sexårigt barn i första klass. En vuxen person uppgår till cirka 100 i genomsnitt. Under 2014 genomfördes liknande test där AI nådde ett högsta värde på 27.

    Problem som kräver att AGI löser

    De svåraste problemen för datorer är informellt känd som AI-complete eller AI-hard, vilket innebär att lösa dem är likvärdigt med den allmänna lämpligheten för mänsklig intelligens, eller stark AI, utöver kapaciteterna för en ändamålsspecifik algoritm.

    AI-kompletta problem antas vara allmän datorsyn, naturligt språkförståelse och hantering av oväntade omständigheter samtidigt som man löser alla verkliga problem.

    AI-kompletta problem kan inte lösas endast med aktuell datorteknologi och kräver också mänsklig beräkning. Den här egenskapen kan vara användbar, till exempel för att testa för närvaro av människor, som CAPTCHAs syftar till att göra; och för datasäkerhet för att avvisa attacker för brute-force.

    AGI-forskning

    Klassisk AI

    Modern AI-forskning började i mitten av 1950-talet. Den första generationen av AI-forskare var övertygade om att konstgjord allmän intelligens var möjlig och att den skulle existera på bara några decennier. Som AI-pionjären skrev Herbert A. Simon 1965: maskiner kommer att kunna inom 20 år göra något arbete en man kan göra. Deras förutsägelser var inspiration för Stanley Kubrick och Arthur C. Clarkes karaktär HAL 9000, som förkroppsligade vad AI-forskare trodde att de kunde skapa år 2001. AI-pionjären Marvin Minsky var en konsult för projektet att göra HAL 9000 så realistiskt som möjligt enligt det tidens konsensusförutsägelser; Crevier citerar honom för att ha sagt om ämnet 1967, Inom en generation... problemet med att skapa konstgjord intelligens kommer att lösas väsentligt, även om Minsky konstaterar att han felaktigt citerades.

    I början av 1970-talet blev det dock uppenbart att forskare grovt underskattade svårigheten med projektet. Finansieringsbyråer blev skeptiska till AGI och satte forskare under ökande press för att producera användbar tillämpad AI. När 1980-talet började återupplivade Japans femte generation datorprojekt intresset för AGI och fastställde en tioårig tidslinje som inkluderade AGI-mål som fortsätta en avslappnad konversation. Som svar på detta och framgången för expertsystem pumpade både industri och regering pengar tillbaka till fältet. Förtroendet för AI kollapsade dock spektakulärt i slutet av 1980-talet och målen för femte generationens dataprojekt uppfylldes aldrig. För det andra tid på 20 år har AI-forskare som förutspådde den överhängande uppnåendet av AGI visat sig vara grundläggande felaktiga. På 1990-talet hade AI-forskare fått ett rykte för att de gav förgäves löften. De blev ovilliga att göra förutsägelser överhuvudtaget och undvika att nämna mänsklig nivå konstgjord intelligens av rädsla för att bli märkt vildögd drömmer.

    Smal AI-forskning

    Under 1990-talet och början av 2000-talet har mainstream AI uppnått mycket större kommersiell framgång och akademisk respektabilitet genom att fokusera på specifika delproblem där de kan producera verifierbara resultat och kommersiella applikationer, som konstgjorda neurala nätverk, datorvision eller datahantering. Dessa " tillämpade AI-system används nu i stor utsträckning inom teknikindustrin, och forskning i denna åd är mycket starkt finansierad inom akademin och industrin. För närvarande överväger utvecklingen på detta område en växande trend, och ett moget stadium förväntas ske på mer än tio år.

    De flesta vanliga AI-forskare hoppas att stark AI kan utvecklas genom att kombinera program som löser olika delproblem med hjälp av en integrerad agentarkitektur, kognitiv arkitektur eller subumptionsarkitektur. Hans Moravec skrev 1988:

    Jag är övertygad om att den här nedifrån och upp vägen till artificiell intelligens en dag kommer att möta den traditionella top-down-vägen mer än halvvägs, redo att tillhandahålla den verkliga världskompetensen och den allmänna kunskap som har varit så frustrerande undvikande i resonemangsprogram. Helt intelligenta maskiner kommer att resultera när den metaforiska gyllene spiken drivs förenar de två insatserna.

    Men även denna grundläggande filosofi har ifrågasatts; till exempel avslutade Stevan Harnad från Princeton sitt papper från 1990 om hypotesen Symbol Grounding genom att ange:

    Expektionen har ofta uttryckts att top-down (symbolisk) tillvägagångssätt för att modellera kognition på något sätt kommer att möta bottom-up (sensoriska) tillvägagångssätt någonstans däremellan. Om grundläggande överväganden i detta papper är giltiga, är denna förväntning hopplöst modulär och det finns egentligen bara en livskraftig väg från förnuft till symboler: från grunden upp. En fritt flytande symbolnivå som mjukvarunivån för en dator kommer aldrig att nås på denna rutt (eller vice versa) - det är inte heller klart varför vi ens försök att uppnå en sådan nivå, eftersom det ser ut som om vi kommer dit bara skulle betyda att utrota våra symboler från deras inre betydelse (och därigenom bara reducera oss till den funktionella motsvarigheten till en programmerbar dator).

    Modern konstgjord allmän intelligensforskning

    Artificiell allmän intelligens (AGI) beskriver forskning som syftar till att skapa maskiner som kan generell intelligent handling. Begreppet användes redan 1997 av Mark Gubrudin, en diskussion om konsekvenserna av helautomatisk militär produktion och operationer. Begreppet introducerades och populariserades av Shane Legg och Ben Goertzel omkring 2002. Forskningsmålen är mycket äldre, till exempel Doug Lenats Cyc-projekt (som började 1984), och Allen Newells Soar-projekt anses vara inom AGI. AGIs forskningsaktivitet 2006 beskrivs av Pei Wang och Ben Goertzelas som producerade publikationer och preliminära resultat. Den första sommarskolan i AGI organiserades i Xiamen, Kina 2009 av Xiamen universitetets Artificial Brain Laboratory och OpenCog. Den första universitetskursen gavs 2010 och 2011 vid Plovdiv universitet, Bulgarien av Todor Arnaudov. MIT presenterade en kurs i AGI 2018, organiserad av Lex Fridman och med ett antal gästföreläsare. Men än så länge har de flesta AI-forskare ägnat lite uppmärksamhet åt AGI, med vissa som hävdar att intelligens är för komplex för att kunna replikeras fullständigt på kort sikt. Men ett litet antal datavetare är aktiva i AGI-forskning, och många av denna grupp bidrar till en serie AGI-konferenser. Forskningen är extremt mångfaldig och ofta banbrytande. I inledningen till sin bok säger Goertzel att uppskattningar av den tid som behövs innan en verkligt flexibelAGI byggs varierar från tio år till över ett sekel, men konsensus inom AGI-forskarsamhället verkar vara den tidslinjen som diskuterats av Ray Kurzweil i The Singularity är nära (dvs. mellan 2015 och 2045) är rimligt.

    Men de flesta vanliga AI-forskare tvivlar på att framstegen kommer att vara så snabba. Organisationer som uttryckligen bedriver AGI inkluderar det schweiziska AI-laboratoriet IDSIA, Nnaisense, Vicarious, Maluuba, OpenCog Foundation, Adaptive AI, LIDA och Numenta och tillhörande Redwood Neuroscience Institute. Dessutom har organisationer som Machine Intelligence Research Institute och OpenAI grundats för att påverka utvecklingsvägen för AGI. Slutligen har projekt som Human Brain Projecthth målet att bygga en fungerande simulering av den mänskliga hjärnan. En undersökning av AGI av AGI kategoriserade fyrtiofem kända aktiva FoU-projekt som uttryckligen eller implicit (genom publicerad forskning) forskning AGI, där de största tre var DeepMind, Human Brain Project och OpenAI (baserat på artikel).

    År 2019 tillkännagav videospelspelare och flygingenjör John Carmack planer på att undersöka AGI.

    Nämligen DeepMind med deras framgång i Human Player Simulation för t.ex. AlphaGo använde sig av nya koncept:

    Förstärkningsinlärning för att förbättra redan utbildade nätverk med ny data eller

    Oövervakat inlärning, t.ex. genom generativt nätverk för att förbättra nätverk genom konkurrens.

    Processkraft som behövs för att simulera en hjärna

    Hela hjärnemulering

    Ett populärt tillvägagångssätt som diskuteras för att uppnå generell intelligent handling är helhjärnemulering. En hjärnmodell på låg nivå byggs genom att skanna och kartlägga en biologisk hjärna i detalj och kopiera dess tillstånd till ett datorsystem eller annan beräkningsenhet. Datorn har en simuleringsmodell så trogen till originalen att den kommer att uppträda på väsentligen samma sätt som den ursprungliga hjärnan, eller för alla praktiska ändamål, omöjligt att skilja. Hela hjärnemulering diskuteras i beräkningsneurovetenskap och neuroinformatik, i samband med hjärnsimulering för medicinskt forskningsändamål. Det diskuteras i artificiell intelligensforskning som en strategi för stark AI. Neuroimaging-teknologier som kan leverera nödvändig detaljerad förståelse förbättras snabbt, och futuristen Ray Kurzweil i boken The Singularity Is Near förutspår att en karta med tillräcklig kvalitet kommer att bli tillgänglig på liknande tidsskala som den beräknade datorkraften.

    Tidiga uppskattningar

    För hjärnasimulering på låg nivå skulle en extremt kraftfull dator krävas. Den mänskliga hjärnan har ett stort antal synapser. Var och en av de 10 (hundra miljarder) neuronerna har i genomsnitt 7 000 synaptiska anslutningar till andra neuroner. Det har uppskattats att hjärnan hos ett treårigt barn har cirka 10 synapser (1 kvadriljon). Detta antal minskar med åldern och stabiliseras av vuxen ålder. Uppskattningarna varierar för en vuxen, från 10 till 5 × 10 synapser (100 till 500 biljoner). En uppskattning av hjärnans processorkraft, baserad på en enkel switchmodell för neuronaktivitet, är cirka 10 (100 biljoner) synaptiska uppdateringar per sekund (SUPS). 1997 tittade Kurzweil på olika uppskattningar för hårdvaran som krävs för att motsvara den mänskliga hjärnan och antog en siffra på 10 beräkningar per sekund (cps). (Som jämförelse, om en beräkning motsvarade en flytande punktoperation - ett mått som används för att betygsätta nuvarande superdatorer - skulle 10 beräkningar motsvara 10 petaFLOPS, uppnådda 2011). Han använde denna siffra för att förutsäga nödvändig hårdvara skulle vara tillgänglig någon gång mellan 2015 och 2025, om den exponentiella tillväxten i datorkraft vid skrivandet fortsatte.

    Modellera neuronerna mer i detalj

    Den konstgjorda neuronmodellen som antas av Kurzweil och används i många nuvarande implementeringar av konstgjorda neurala nätverk är enkel jämfört med biologiska neuroner. En hjärnsimulering skulle troligtvis behöva fånga det detaljerade cellulära beteendet hos biologiska neuroner, för närvarande förstås endast i det bredaste av konturerna. Omkostnaderna som infördes genom full modellering av de biologiska, kemiska och fysiska detaljerna i neuralt beteende (särskilt i molekylär skala) skulle kräva beräkningskrafter som är flera storleksordningar större än Kurzweils uppskattning. Dessutom står uppskattningarna inte för gliaceller, som är minst lika många som neuroner, och som kan överstiga neuroner med så mycket som 10: 1, och nu är kända för att spela en roll i kognitiva processer.

    Nuvarande forskning

    Thereare några forskningsprojekt som undersöker hjärnsimulering med mer sofistikerade neurala modeller, implementerade på konventionella datorarkitekturer. Projektet Artificial Intelligence System implementerade icke-realtidssimuleringar av en hjärna (med 10 nervceller) 2005. Det tog 50 dagar på ett kluster av 27 processorer för att simulera en sekund av en modell. Blue Brain-projektet använde en av de snabbaste superdatorarkitekturerna i världen, IBMs Blue Gene-plattform, för att skapa en realtidssimulering av en enda rotte neokortisk kolonn bestående av cirka 10 000 neuroner och 10 synapser under 2006. Ett längre mål är att bygga en detaljerad, funktionell simulering av tefysiologiska processer i den mänskliga hjärnan: Det är inte omöjligt att bygga en mänsklig hjärna och vi kan göra det på tio år, sa Henry Markram, chef för Blue Brain Project 2009 vid TED konferens i Oxford. Det har också förekommit kontroversiella påståenden om att simulera en katthjärna. Neuro-kiselgränssnitt har föreslagits som en alternativ implementeringsstrategi som kan skala bättre.

    Hans Moravecaddresserade ovanstående argument (hjärnan är mer komplicerad , neuroner måste modelleras mer detaljerat) i sitt papper från 1997 När kommer datormaskinvara att matcha den mänskliga hjärnan?. Han mätte förmågan hos befintlig programvara att simulera funktionaliteten hos nervvävnad, särskilt näthinnan. Hans resultat är inte beroende på antalet gliaceller, och inte heller på vilken typ av behandlingsneuroner som utför var.

    Den faktiska komplexiteten för modellering av biologiska neuroner har utforskats i OpenWorm-projektet som syftade till fullständig simulering av en mask som endast har 302 neuroner i sitt nervnätverk (bland cirka 1 000 celler totalt). Djurets nervnätverk har varit väl dokumenterat innan projektet inleddes. Även om uppgiften verkade enkel i början fungerade emellertid inte temodeller baserade på ett generiskt neuralt nätverk. För närvarande är insatserna inriktade på exakt emulering av biologiska neuroner (delvis på molekylär nivå), men resultatet kan inte kallas en total framgång än. Även om antalet problem som ska lösas i en modell av mänsklig hjärnskala inte står i proportion till antalet neuroner, är mängden arbete längs denna väg uppenbart.

    Kritik av simuleringsbaserade metoder

    En grundläggande kritik av den simulerade hjärnans tillvägagångssätt härrör från förkroppsligad kognition där mänsklig utföringsform tas som en väsentlig aspekt av mänsklig intelligens. Många forskare anser att utföringsformen är nödvändig för att grunda mening. Om denna uppfattning är korrekt, kommer alla fullt funktionella hjärnmodeller att omfatta mer än bara nervceller (dvs. en robotkropp). Goertzel föreslår virtuell utföringsform (som Second Life), men det är ännu inte känt om detta skulle räcka.

    Skrivbordsdatorer som använder mikroprocessorer med kapacitet på mer än 10 cps (Kurzweils icke-standardenhet beräkningar per sekund, se ovan) har funnits sedan 2005. Enligt de hjärnkraftsuppskattningar som används av Kurzweil (och Moravec), borde denna dator kunna stödja en simulering av en biehjärna, men trots något intresse finns ingen sådan simulering. Det finns minst tre skäl till detta:

    Neuronmodellen verkar vara förenklad (se nästa avsnitt).

    Det finns otillräcklig förståelse för högre kognitiva processer för att noggrant fastställa vad hjärnans nervaktivitet, observerad med hjälp av tekniker som funktionell magnetisk resonansavbildning, korrelerar med.

    Även om vår förståelse av kognition utvecklas tillräckligt, är antagligen tidiga simuleringsprogram mycket ineffektiva och kommer därför att behöva betydligt mer hårdvara.

    Även om den är kritisk är hjärnan hos en organisma kanske inte en lämplig gräns för en kognitiv modell. För att simulera en biehjärna kan det vara nödvändigt att simulera kroppen och miljön. Examensavhandlingen formaliserar det filosofiska begreppet, och forskning om bläckfiskar har visat tydliga exempel på ett decentraliserat system.

    Dessutom är omfattningen av den mänskliga hjärnan för närvarande inte begränsad. En uppskattning sätter den mänskliga hjärnan på cirka 100 miljarder neuroner och 100 biljoner synapser. En annan uppskattning är 86 miljarder nervceller varav 16,3 miljarder är i hjärnbarken och 69 miljarder i hjärnbotten. Gliacell-synapser är för närvarande inte kvantifierade men är kända för att vara extremt många.

    Artificiell medvetenhetsforskning

    Även om medvetandets roll i starka AI / AGI kan diskuteras, ser många AGI-forskare forskning som undersöker möjligheterna att genomföra medvetande som viktig. I en tidig insats gissade Igor Aleksanderar att principerna för att skapa en medveten maskin redan fanns men att det skulle ta fyrtio år att träna en sådan maskin för att förstå språk.

    Förhållande till stark AI

    1980 myntade filosofen John Searle uttrycket stark AI som en del av sitt kinesiska rumargument. Han ville skilja mellan två olika hypoteser om artificiell intelligens:

    Ett artificiellt intelligenssystem kan tänka och ha ett sinne. (Ordet sinne har en specifik betydelse för filosofer, som används i sinnekroppsproblemet eller sinnesfilosofin.)

    Ett artificiellt intelligenssystem kan (endast) agera som det tänker och har ett sinne.

    Den första kallas den starka AI-hypotesen och den andra är den svaga AI-hypotesen eftersom den första gör den starka uttalanden: den antar att något speciellt har hänt med maskinen som går utöver alla dess förmågor som vi kan testa. Searle hänvisade till den starka AI-hypotesen som stark AI. Denna användning är också vanlig i akademisk AI-forskning och läroböcker.

    Den svaga AI-hypotesen motsvarar hypotesen att konstgjord allmän intelligens är möjlig. Enligt Russell och Norvig, De flesta AI-forskare tar den svaga AI-hypotesen för givet, och bryr sig inte om den starka AI-hypotesen.

    I motsats till Searle använder Kurzweil termen stark AI för att beskriva alla konstgjorda intelligenssystem som fungerar som om det har ett sinne, oavsett om en filosof skulle kunna avgöra om den verkligen har ett sinne eller inte.

    Möjliga förklaringar till den långsamma utvecklingen av AI-forskning

    Sedan AI-forskningen inleddes 1956, minskade tillväxten av detta fält över tid och har stoppat målen att skapa maskiner som är skickliga med intelligent handling på mänsklig nivå. En möjlig förklaring till denna försening är att datorer saknar ett tillräckligt omfattning av minne eller processorkraft. Dessutom kan nivån på komplexitet som ansluter till AI-forskningsprocessen också begränsa utvecklingen av AI-forskning.

    Medan de flesta AI-forskare tror att stark AI kan uppnås i framtiden, finns det vissa individer som Hubert Dreyfus och Roger Penrose som förnekar möjligheten att uppnå stark AI. John McCarthy var en av olika datavetare som tror att AI på mänsklig nivå kommer att uppnås, men ett datum kan inte exakt förutsägas.

    Begreppsmässiga begränsningar är en annan möjlig orsak till långsamheten i AI-forskning. AI-forskare kan behöva modifiera den konceptuella ramen för sin disciplin för att ge en starkare bas och bidrag till strävan att uppnå stark AI. Som William Clocksin skrev 2003: ramverket börjar från Weizenbaums iakttagelse att intelligens endast manifesterar sig relativt specifika sociala och kulturella sammanhang.

    Dessutom har AI-forskare kunnat skapa datorer som kan utföra jobb som är komplicerade för människor att göra, men tvärtom har de kämpat för att utveckla en dator som kan utföra uppgifter som är enkla för människor att göra (Moravecs paradox). Ett problem som beskrivs av David Gelernter är att vissa antar att tänkande och resonemang är likvärdiga. Men tanken på om tankar och skaparen av dessa tankar isoleras individuellt har intrigerat AI-forskare.

    De problem som har uppstått i AI-forskning under de senaste decennierna har ytterligare hindrat AI: s framsteg. De misslyckade förutsägelserna som har lovats av AI-forskare och bristen på en fullständig förståelse av mänskligt beteende har bidragit till att minska den främsta idén om AI på mänsklig nivå. Även om utvecklingen av AI-forskning har lett till både förbättring och besvikelse, har de flesta utredare etablerat optimism om att potentiellt uppnå målet för AI under 2000-talet.

    Andra möjliga skäl har föreslagits för den långa forskningen i utvecklingen av starka AI. Intresset med vetenskapliga problem och behovet av att fullt ut förstå den mänskliga hjärnan genom psykologi och neurofysiologi har begränsat många forskare från att emulera den mänskliga hjärnans funktion till en datormaskinvara. Många forskare tenderar att underskatta alla tvivel som är involverad i framtida förutsägelser om AI, men utan att ta dessa frågor på allvar kan människor då förbise lösningar på problematiska frågor.

    Clocksin säger att en konceptuell begränsning som kan hindra framstegen i AI-forskning är att människor kanske använder fel teknik för datorprogram och implementering av utrustning. När AI-forskare först började sträva efter målet om konstgjord intelligens var ett huvudintresse mänskliga resonemang. Forskare hoppades etablera beräkningsmodeller för mänsklig kunskap genom resonemang och ta reda på hur man utformar en dator med en specifik kognitiv uppgift.

    Abstraktionsmetoden, som människor tenderar att omdefiniera när de arbetar med ett visst sammanhang inom forskning, ger forskare en koncentration på bara några få begrepp. Den mest produktiva användningen av abstraktion i AI-forskning kommer från planering och problemlösning. Även om syftet är att öka hastigheten på en beräkning har abstraktionsrollen ställt frågor om abstraktionsoperatörernas deltagande.

    En möjlig orsak till långsamheten i AI hänför sig till erkännandet av många AI-forskare att heuristik är ett avsnitt som innehåller ett betydande brott mellan datorprestanda och mänsklig prestanda. De specifika funktionerna som är programmerade för en dator kan kunna redogöra för många av kraven som gör det möjligt att matcha mänsklig intelligens. Dessa förklaringar garanteras inte nödvändigtvis vara de grundläggande orsakerna till förseningen i att uppnå stark AI, men de är överens om många forskare.

    Det har varit många AI-forskare som debatterar om idén om maskiner ska skapas med känslor. Det finns inga känslor i typiska modeller av AI och vissa forskare säger att programmering av känslor i maskiner gör att de kan ha sina egna sinnen. Känslor sammanfattar människors upplevelser eftersom det gör att de kan komma ihåg dessa upplevelser. David Gelernter skriver, Ingen dator kommer att vara kreativ såvida den inte kan simulera alla nyanser av mänsklig känsla. Denna oro över känslor har skapat problem för AI-forskare och kopplas till begreppet stark AI när dess forskning går framåt.

    Medvetande

    Thereare andra aspekter av det mänskliga sinnet förutom intelligens som är relevanta för begreppet stark AI som spelar en viktig roll i science fiction och etiken för artificiell intelligens:

    Medvetande: Att ha subjektiva erfarenheter och tankar.

    Självmedvetenhet: Att vara medveten om sig själv som en separat individ, särskilt att vara medveten om sina egna tankar.

    Känsla: Förmågan att känna uppfattningar eller känslor subjektivt.

    Sapience: Kapaciteten för visdom.

    Dessa drag har en moralisk dimension, eftersom en maskin med denna form av stark AI kan ha lagliga rättigheter, analog med rättigheterna för icke-mänskliga djur. Bill Joy hävdar också att en maskin med dessa egenskaper kan vara ett hot mot människors liv eller värdighet. Det återstår att visa om någon av dessa egenskaper är nödvändiga för stark AI. Medvetenhetens roll är inte klar, och för närvarande finns det inget överenskomet test för dess närvaro. Om en maskin är byggd med en enhet som simulerar medvetandets nervkorrelat, skulle den automatiskt ha självmedvetenhet? Det är också möjligt att en del av dessa egenskaper, som upplevelse, naturligtvis kommer från en helt intelligent maskin, eller att det blir naturligt att tillskriva maskiner till maskiner när de börjar agera på ett sätt som är tydligt intelligent. Exempelvis kan intelligent handling vara tillräcklig för uppmärksamhet snarare än tvärtom.

    I science fiction är AGI förknippat med drag som medvetande, sällsynthet, sapience och självmedvetenhet som observeras i levande varelser. Enligt filosofen John Searle är det emellertid en öppen fråga om allmän intelligens är tillräcklig för medvetandet. Stark AI (som definierats ovan av Ray Kurzweil) bör inte förväxlas med Searles starka AI-hypotes. Den starka AI-hypotesen är påståendet att en dator som uppträder lika intelligent som en person också nödvändigtvis måste ha ett sinne och medvetande. AGI hänvisar bara till den mängd intelligens som maskinen visar, med eller utan ett sinne.

    Kontroverser och faror

    Genomförbarhet

    Åsikter varierar både om och när konstgjord allmän intelligens kommer att komma fram. På ett extremt sätt, AI-pionjären Herbert A. Simonwrote 1965: maskiner kommer att kunna inom tjugo år göra något arbete som en man kan göra. Men denna förutsägelse misslyckades. Microsoft-grundare Paul Allen trodde att sådan intelligens är osannolik under 2000-talet eftersom det skulle kräva oförutsebara och grundläggande oförutsägbara genombrott och en vetenskapligt djup förståelse av kognition. Robotisten Alan Winfield skrev i The Guardian och hävdade att klyftan mellan modern databehandling och konstgjord intelligens på mänsklig nivå är lika bred som klyftan mellan nuvarande rymdflygning och praktisk snabbare än ljus rymdflyg. AI-experternas åsikter om genomförbarheten av AGI-vax och minskar och kan ha sett en återuppblickning under 2010-talet. Fyra undersökningar genomförda under 2012 och 2013 antydde att mediangissningen bland experter för när de skulle vara 50% säker på att AGI skulle anlända var 2040 till 2050, beroende på omröstningen, med medelvärdet 2081. Det är också intressant att notera 16,5% av experterna svarade med aldrig när de ställdes samma fråga men med 90% förtroende istället. Ytterligare aktuella AGI-framstegsöverväganden kan hittas nedan Tester för att bekräfta mänskliga AGI- och IQ-test AGI.

    Potentiellt hot mot människans existens

    Skapandet av konstgjord allmän intelligens kan ha konsekvenser så stora och så komplicerade att det kanske inte är möjligt att förutse vad som kommer att komma efteråt. Således kallas händelsen i den hypotetiska framtiden för att uppnå stark AI den tekniska singulariteten, eftersom man teoretiskt sett inte kan se förbi den. Men detta har inte hindrat filosofer och forskare från att gissa vad framtidens smarta datorer eller robotar kan göra, inklusive att bilda en utopi genom att vara våra vänner eller överväldiga oss i en AI-övertagande. Den senare potentialen är särskilt störande eftersom den utgör en existensiell risk för mänskligheten.

    Självreplikerande maskiner

    Smarta datorer eller robotar skulle kunna utforma och producera förbättrade versioner av sig själva. En växande befolkning av intelligenta robotar kan tänkas konkurrera underlägsna människor på arbetsmarknader, i företag, i vetenskap, i politik (sträva efter roboträttigheter), och tekniskt, sociologiskt (genom att agera som en) och militärt. Än idag har många jobb redan tagits av pseudo-intelligenta maskiner som drivs av ett svagt AI. Till exempel har robotar för hem, hälsovård, hotell och restauranger automatiserat många delar av våra liv: virtuella bots förvandlar kundservice till själv- service, big data AI-applikationer används för att ersätta portföljhanterare, och sociala robotar som Pepper används för att ersätta mänskliga hälsningar för kundtjänständamål.

    Emergent superintelligence

    Ifresearch i stark AI producerade tillräckligt intelligent programvara, det skulle kunna omprogrammera och förbättra sig själv - en funktion som kallas rekursiv självförbättring. Det skulle då vara ännu bättre på att förbättra sig själv, och skulle förmodligen fortsätta göra det i en snabbt ökande cykel, vilket skulle leda till en intelligensexplosion och uppkomsten av superintelligens. En sådan intelligens skulle inte ha begränsningarna av mänskligt intellekt, och kanske skulle kunna uppfinna eller upptäcka nästan vad som helst.

    Hyperintelligent programvara kanske inte nödvändigtvis beslutar att stödja människans fortsatta existens och kan vara extremt svårt att stoppa. Detta ämne har också nyligen börjat diskuteras i akademiska publikationer som

    Enjoying the preview?
    Page 1 of 1