Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

Sztuczna inteligencja: czwarta rewolucja przemysłowa
Sztuczna inteligencja: czwarta rewolucja przemysłowa
Sztuczna inteligencja: czwarta rewolucja przemysłowa
Ebook477 pages7 hours

Sztuczna inteligencja: czwarta rewolucja przemysłowa

Rating: 0 out of 5 stars

()

Read preview

About this ebook

Czwarta rewolucja przemysłowa stanowi fundamentalną zmianę w naszym życiu, pracy i wzajemnych relacjach. To nowy rozdział w rozwoju człowieka, umożliwiany przez niezwykłe postępy technologiczne, proporcjonalne do tych z pierwszej, drugiej i trzeciej rewolucji przemysłowej. Postępy te łączą świat fizyczny, cyfrowy i biologiczny w sposób, który tworzy zarówno ogromną obietnicę, jak i potencjalne zagrożenie. Szybkość, szerokość i głębokość tej rewolucji zmusza nas do przemyślenia, jak rozwijają się kraje, jak organizacje tworzą wartość, anawet co to znaczy być człowiekiem. Sztuczna inteligencja jest dziś właściwie znana jako wąska sztuczna inteligencja (lub słaba sztuczna inteligencja), ponieważ jest zaprojektowana do wykonywania wąskiego zadania (np. Tylko rozpoznawanie twarzy lub tylko wyszukiwanie w Internecie lub tylko prowadzenie samochodu). Jednak długoterminowym celem wielu badaczy jest stworzenie ogólnej sztucznej inteligencji (AGI lub silnej AI). Podczas gdy wąska sztuczna inteligencja może przewyższać ludzi w jakimkolwiek konkretnym zadaniu, np. Grać w szachy lub rozwiązywać równania, AGI przewyższa ludzi w prawie każdym zadaniu poznawczym.
Authors: Peter Skalfist, Daniel Mikelsten, Vasil Teigens

LanguageJęzyk polski
Release dateSep 15, 2020
ISBN9781005434649
Sztuczna inteligencja: czwarta rewolucja przemysłowa
Author

Peter Skalfist

Peter Skalfist, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Related authors

Related to Sztuczna inteligencja

Related ebooks

Reviews for Sztuczna inteligencja

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    Sztuczna inteligencja - Peter Skalfist

    Wprowadzenie

    Czwarta rewolucja przemysłowa stanowi fundamentalną zmianę w naszym życiu, pracy i wzajemnych relacjach. Jest to nowy rozdział w rozwoju człowieka, umożliwiany przez niezwykłe postępy technologiczne, proporcjonalne do tych z pierwszej, drugiej i trzeciej rewolucji przemysłowej. Postępy te łączą świat fizyczny, cyfrowy i biologiczny w sposób, który tworzy zarówno ogromną obietnicę, jak i potencjalne zagrożenie. Szybkość, szerokość i głębokość tej rewolucji zmusza nas do przemyślenia, jak rozwijają się kraje, jak organizacje tworzą wartość, a nawet co to znaczy być człowiekiem.

    Od SIRI po samochody samojezdne, sztuczna inteligencja (AI) rozwija się bardzo szybko. Podczas gdy science fiction często przedstawia AI jako roboty o cechach podobnych do ludzkich, AI może obejmować wszystko, od algorytmów wyszukiwania Google, przez Watsona IBM, po broń autonomiczną.

    Sztuczna inteligencja jest dziś właściwie znana jako wąska sztuczna inteligencja (lub słaba sztuczna inteligencja), ponieważ jest zaprojektowana do wykonywania wąskiego zadania (np. Tylko rozpoznawanie twarzy lub tylko wyszukiwanie w Internecie lub tylko prowadzenie samochodu). Jednak długoterminowym celem wielu badaczy jest stworzenie ogólnej sztucznej inteligencji (AGI lub silnej AI). Podczas gdy wąska sztuczna inteligencja może przewyższać ludzi w jakimkolwiek konkretnym zadaniu, np. Grać w szachy lub rozwiązywać równania, AGI przewyższa ludzi w prawie każdym zadaniu poznawczym.

    Czwarta rewolucja przemysłowa to coś więcej niż zmiana oparta na technologii; jest to okazja, aby pomóc wszystkim, w tym liderom, decydentom i osobom ze wszystkich grup dochodowych i narodów, w wykorzystaniu zbieżnych technologii w celu stworzenia integracyjnej, zorientowanej na człowieka przyszłości. Prawdziwą szansą jest wyjście poza technologię i znalezienie sposobu, aby dać jak największej liczbie ludzi możliwość pozytywnego wpływu na ich rodziny, organizacje i społeczności.

    Sztuczna inteligencja ogólna

    Sztuczna inteligencja ogólna (AGI) to inteligencja maszyny, która może zrozumieć lub nauczyć się dowolnego zadania intelektualnego, które człowiek może wykonać. Jest to główny cel niektórych badań nad sztuczną inteligencją i wspólny temat w badaniach science fiction i przyszłości. AGI może być również określane jako silna AI, pełna AI lub ogólna inteligentna akcja. (Niektóre źródła akademickie zastrzegają termin silna AI dla maszyn, które mogą doświadczać świadomości.) Niektóre autorytety podkreślają rozróżnienie między silną AI a stosowaną AI (zwaną również wąską AI lub słabą AI): używanie oprogramowania do badania lub wykonywania określonych zadań rozwiązywania problemów lub wnioskowania. Słaba AI, w przeciwieństwie do silnej AI, nie próbuje wykonać pełnego zakresu ludzkich zdolności poznawczych.

    Zaproponowano różne kryteria inteligencji (najsłynniejszy test Turinga), ale do tej pory nie ma definicji, która zadowoliłaby wszystkich. Jednak badacze sztucznej inteligencji są zgodni co do tego, że inteligencja jest wymagana do wykonywania następujących czynności:

    Rozumować, stosować strategię, rozwiązywać zagadki i dokonywać osądów w niepewności;

    Reprezentować wiedzę, w tym wiedzę z zakresu zdrowego rozsądku;

    Plan;

    Uczyć się;

    Porozumiewać się w języku naturalnym;

    I zintegruj wszystkie te umiejętności w celu osiągnięcia wspólnych celów.

    Inne ważne możliwości obejmują zdolność wykrywania (np. Widzenia) i zdolność działania (np. Poruszania i manipulowania obiektami) w świecie, w którym należy obserwować inteligentne zachowanie. Obejmowałoby to zdolność wykrywania zagrożeń i reagowania na nie. Wiele interdyscyplinarnych podejść do inteligencji (np. Kognitywistyka, inteligencja obliczeniowa i podejmowanie decyzji) ma tendencję do podkreślania potrzeby uwzględnienia dodatkowych cech, takich jak wyobraźnia (rozumiana jako zdolność do tworzenia obrazów mentalnych i pojęć, które nie zostały zaprogramowane) i autonomii. istnieją systemy, które wykazują wiele z tych możliwości (np. patrz kreatywność obliczeniowa, automatyczne rozumowanie, system wspomagania decyzji, robot, obliczenia ewolucyjne, inteligentny agent), ale jeszcze nie na poziomie ludzkim.

    Testy potwierdzające AGI na poziomie ludzkim

    Test Turinga (Turing) Zarówno maszyna, jak i człowiek rozmawiają przez wzrok niewidoczny z drugim człowiekiem, który musi ocenić, która z nich jest maszyną, która pomyślnie przechodzi test, jeśli może oszukać znaczącą część czasu osoby oceniającej. Uwaga: Turing nie określa, co powinno być kwalifikowane jako inteligencja, a jedynie to, że wiedza, że ​​jest to maszyna, powinna ją zdyskwalifikować. Test kawy (Woźniak) Aby wejść do przeciętnego amerykańskiego domu i dowiedzieć się, jak zrobić kawę, wymagany jest automat: znajdź ekspres do kawy, znajdź kawę, dodaj wodę, znajdź kubek i zaparz kawę, naciskając odpowiednie przyciski. Robot College Student Test (Goertzel) Maszyna zapisuje się na uniwersytet, ucząc się i przechodząc te same klasy, co ludzie, i uzyskując stopień naukowy. Test zatrudnienia (Nilsson) Maszyna wykonuje ekonomicznie ważną pracę, wykonując co najmniej równie dobrze ludzi w tej samej pracy.

    Testy IQ AGI

    Chińscy badacze Feng Liu, Yong Shi i Ying Liu przeprowadzili testy wywiadowcze latem 2017 roku z publicznie dostępną i ogólnodostępną słabą AI, taką jak Google AI lub Siri Apple i inne. Maksymalnie te AI osiągnęły wartość około 47, co odpowiada w przybliżeniu sześcioletniemu dziecku w pierwszej klasie. Dorosła osoba osiąga średnio około 100. W 2014 r. Przeprowadzono podobne testy, w których AI osiągnęła maksymalną wartość 27.

    Problemy wymagające rozwiązania AGI

    Najtrudniejsze problemy dla komputerów są nieformalnie znane jako AI-complete lub AI-hard, co oznacza, że ​​ich rozwiązanie jest równoważne ogólnej zdolności ludzkiej inteligencji lub silnej AI, wykraczającej poza możliwości algorytmu specyficznego dla celu.

    Zakłada się, że problemy związane z AI pełne obejmują ogólne widzenie komputerowe, rozumienie języka naturalnego i radzenie sobie z nieoczekiwanymi okolicznościami przy rozwiązywaniu problemów w świecie rzeczywistym.

    Problemy z AI nie mogą być rozwiązane przy pomocy samej obecnej technologii komputerowej, a także wymagają obliczeń ludzkich. Ta właściwość może być przydatna, na przykład, do testowania obecności ludzi, tak jak ma to miejsce w przypadku CAPTCHA; i dla bezpieczeństwa komputerowego w celu odparcia ataków siłowych.

    Badania AGI

    Klasyczna sztuczna inteligencja

    Współczesne badania nad sztuczną inteligencją rozpoczęły się w połowie lat 50. Pierwsza generacja badaczy AI była przekonana, że ​​sztuczna inteligencja ogólna jest możliwa i że będzie istnieć za kilka dekad. Jak pisał w 1965 roku pionier AI, Herbert A. Simon: maszyny będą w stanie w ciągu dwudziestu lat wykonać każdą pracę, jaką może wykonać człowiek. Ich przewidywania były inspiracją dla postaci HAL 9000 Stanleya Kubricka i Arthura C. Clarke'a, którzy ucieleśniali to, co według naukowców AI mogą stworzyć do roku 2001. Marvin Minsky, pionier sztucznej inteligencji, był konsultantem projektu uczynienia HAL 9000 tak realistycznym, jak to tylko możliwe. konsensusowe przewidywania czasu; Crevier cytuje go, jak powiedział na ten temat w 1967 roku: W ciągu jednego pokolenia... problem tworzenia sztucznej inteligencji zostanie zasadniczo rozwiązany, chociaż Minsky twierdzi, że był źle cytowany.

    Jednak na początku lat siedemdziesiątych stało się oczywiste, że naukowcy rażąco nie docenili trudności projektu. Agencje finansujące stały się sceptycznie nastawione do AGI i wywierały coraz większą presję na badaczy, aby produkowali użyteczne stosowane AI. Na początku lat osiemdziesiątych japoński projekt komputerowy piątej generacji ożywił zainteresowanie AGI, wyznaczając dziesięcioletni harmonogram obejmujący cele AGI, takie jak prowadzenie swobodnej rozmowy. W odpowiedzi na to i sukces systemów eksperckich zarówno przemysł, jak i rząd wpompowały pieniądze z powrotem w pole, jednak pod koniec lat 80. zaufanie do AI spadło spektakularnie, a cele projektu komputerowego piątej generacji nigdy nie zostały spełnione. przez 20 lat badacze AI, którzy przewidzieli rychłe osiągnięcie AGI, okazali się całkowicie w błędzie. W latach 90. badacze AI zyskali reputację składając próżne obietnice. Niechętnie robili prognozy i unikali jakichkolwiek wzmianek o sztucznej inteligencji na poziomie ludzkim z obawy, że zostaną nazwani marzycielami o dzikich oczach.

    Wąskie badania nad AI

    W latach 90. i na początku XXI wieku sztuczna inteligencja głównego nurtu osiągnęła znacznie większy sukces komercyjny i uznanie akademickie, koncentrując się na konkretnych podproblemach, w których mogą one dać możliwe do zweryfikowania wyniki i zastosowaniach komercyjnych, takich jak sztuczne sieci neuronowe, wizja komputerowa lub eksploracja danych. stosowane systemy AI są obecnie szeroko stosowane w przemyśle technologicznym, a badania w tym zakresie są bardzo mocno finansowane w obu środowiskach akademickich i przemyśle. Obecnie rozwój w tej dziedzinie jest uważany za nowy trend i oczekuje się, że dojrzały etap nastąpi za ponad 10 lat.

    Większość badaczy AI głównego nurtu ma nadzieję, że silną AI można opracować poprzez połączenie programów, które rozwiązują różne pod-problemy za pomocą zintegrowanej architektury agenta, architektury kognitywnej lub architektury subsumpcji. Hans Moravec napisał w 1988 roku:

    Jestem przekonany, że ta oddolna droga do sztucznej inteligencji pewnego dnia spotka się z tradycyjną odgórną drogą ponad połowę drogi, gotowa zapewnić rzeczywiste kompetencje i wiedzę, która tak frustrująco nieuchwytna w programach wnioskowania. W pełni inteligentne maszyny powstanie, gdy metaforyczny złoty kolec jest napędzany łącząc oba wysiłki.

    Jednak nawet ta fundamentalna filozofia została zakwestionowana; na przykład Stevan Harnad z Princeton zakończył swój artykuł z 1990 r. na temat hipotezy uziemienia symbolu, stwierdzając:

    Często spodziewano się, że podejście z góry na dół (symboliczne) do modelowania poznania w jakiś sposób spotka się z podejściem z dołu do góry (sensorycznym) gdzieś pomiędzy. Jeśli rozważania uziemiające w tym dokumencie są prawidłowe, to oczekiwanie jest beznadziejnie modularne i tak naprawdę istnieje tylko jedna realna droga od zmysłu do symboli: od podstaw. Swobodny symboliczny poziom, taki jak poziom oprogramowania komputerowego, nigdy nie zostanie osiągnięty tą drogą (lub odwrotnie) - ani nie jest jasne, dlaczego powinniśmy nawet staraj się osiągnąć taki poziom, ponieważ wydaje się, że dotarcie tam oznaczałoby po prostu wyrwanie naszych symboli z ich wewnętrznych znaczeń (ograniczając się w ten sposób do funkcjonalnego odpowiednika programowalnego komputera).

    Współczesne badania sztucznej inteligencji ogólnej

    Sztuczna inteligencja ogólna (AGI) opisuje badania, których celem jest stworzenie maszyn zdolnych do generalnego inteligentnego działania. Termin ten był używany już w 1997 r. Przez Mark Gubrudin w dyskusji na temat implikacji w pełni zautomatyzowanej produkcji i operacji wojskowych. Termin został ponownie wprowadzony i spopularyzowany przez Shane'a Legga i Bena Goertzela około 2002 r. Cel badawczy jest znacznie starszy, na przykład projekt Cyc Douga Lenata (który rozpoczął się w 1984 r.), A projekt Soar Allena Newella uważany jest za objęty AGI. Działalność badawczą AGI w 2006 r. Opisali Pei Wang i Ben Goertzelas opracowując publikacje i wstępne wyniki. Pierwsza szkoła letnia w AGI została zorganizowana w Xiamen w Chinach w 2009 r. Przez laboratorium sztucznej inteligencji uniwersytetu w Xiamen i OpenCog. Pierwszy kurs uniwersytecki prowadził Todor Arnaudow w 2010 i 2011 r. Na uniwersytecie w Płowdiwie w Bułgarii. MIT przedstawił kurs AGI w 2018 r., Zorganizowany przez Lex Fridman, z udziałem wielu wykładowców gościnnych. Jednak jak dotąd większość badaczy AI poświęciła AGI niewiele uwagi, a niektórzy twierdzą, że inteligencja jest zbyt złożona, aby można ją było w najbliższym czasie całkowicie powielić. Jednak niewielka liczba informatyków bierze udział w badaniach AGI i wielu z tej grupy bierze udział w serii konferencji AGI. Badania są niezwykle różnorodne i często mają pionierski charakter. We wstępie do swojej książki Goertzel mówi, że szacunkowy czas potrzebny do zbudowania prawdziwie elastycznego interfejsu AGI waha się od 10 lat do ponad wieku, ale wydaje się, że społeczność badawcza AGI zgadza się, że oś czasu omawiana przez Raya Kurzweila w The Singularity jest bliski (tj. między 2015 a 2045 r.) jest prawdopodobny.

    Jednak większość badaczy AI głównego nurtu wątpi, że postęp będzie tak szybki. Organizacje wyraźnie dążące do AGI to szwajcarskie laboratorium AI IDSIA, Nnaisense, Vicarious, Maluuba, Fundacja OpenCog, Adaptive AI, LIDA i Numenta oraz powiązany Instytut Redwood Neuroscience. Ponadto utworzono organizacje takie jak Machine Intelligence Research Institute i OpenAI, aby wpływać na ścieżkę rozwoju AGI. Wreszcie, projekty takie jak Human Brain Project mają na celu zbudowanie działającej symulacji ludzkiego mózgu. Ankieta AGI przeprowadzona w A2017 sklasyfikowała czterdzieści pięć znanych aktywnych projektów badawczo-rozwojowych, które jawnie lub pośrednio (poprzez opublikowane badania) badają AGI, przy czym trzy największe to DeepMind, Human Brain Project i OpenAI (na podstawie artykułu).

    W 2019 r. Programista gier i inżynier kosmiczny John Carmack ogłosił plany badań AGI.

    Mianowicie DeepMind dzięki sukcesowi w Human Player Simulation, np. AlphaGo, wykorzystał nowe koncepcje:

    Uczenie się przez wzmocnienie w celu ulepszenia już przeszkolonych sieci o nowe dane lub

    Uczenie się bez nadzoru, np. Przez Generatywną sieć przeciwników w celu uzyskania lepszych sieci przez konkurencję.

    Moc obliczeniowa potrzebna do symulacji mózgu

    Emulacja całego mózgu

    Popularnym podejściem omawianym do osiągnięcia ogólnego inteligentnego działania jest emulacja całego mózgu. Model mózgu niskiego poziomu jest budowany przez szczegółowe skanowanie i mapowanie mózgu biologicznego oraz kopiowanie jego stanu do systemu komputerowego lub innego urządzenia obliczeniowego. Komputer uruchamia model symulacyjny tak wierny oryginałowi, że zachowa się zasadniczo w ten sam sposób co oryginalny mózg lub dla wszystkich praktycznych celów, nie do odróżnienia. Emulacja całego mózgu jest omawiana w neuronauce obliczeniowej i neuroinformatyce, w kontekście symulacji mózgu do celów badań medycznych. Jest omawiany w badaniach nad sztuczną inteligencją jako podejście do silnej AI. Technologie neuroobrazowania, które mogą zapewnić niezbędne szczegółowe zrozumienie, szybko się poprawiają, a futurysta Ray Kurzweil w książce The Singularity Is Near przewiduje, że mapa o odpowiedniej jakości będzie dostępna w podobnej skali czasowej, co wymagana moc obliczeniowa.

    Wczesne szacunki

    Do symulacji mózgu na niskim poziomie wymagany byłby niezwykle wydajny komputer. Ludzki mózg ma ogromną liczbę synaps. Każdy z 10 (sto miliardów) neuronów ma średnio 7 000 połączeń synaptycznych z innymi neuronami. Oszacowano, że mózg trzyletniego dziecka ma około 10 synaps (1 biliard). Liczba ta maleje z wiekiem, stabilizując się w wieku dorosłym. Szacunki różnią się dla osoby dorosłej, od 10 do 5 × 10 synaps (100 do 500 bilionów). Szacunkowa moc przetwarzania mózgu, oparta na prostym modelu przełączania aktywności neuronów, wynosi około 10 (100 trylionów) aktualizacji synaptycznych na sekundę (SUPS). W 1997 r. Kurzweil przyjrzał się różnym szacunkom sprzętu niezbędnego do zrównania ludzkiego mózgu i przyjął liczbę 10 obliczeń na sekundę (cps). (Dla porównania, gdyby obliczenia były równoważne z jedną operacją zmiennoprzecinkową - miarą stosowaną do oceny obecnych superkomputerów - wówczas 10 obliczeń byłoby równoważnych z 10 petaFLOPS, osiągniętymi w 2011 r.). niezbędny sprzęt będzie dostępny w latach 2015–2025, jeśli wykładniczy wzrost mocy komputera w momencie pisania będzie kontynuowany.

    Bardziej szczegółowe modelowanie neuronów

    Model sztucznego neuronu przyjęty przez Kurzweila i stosowany w wielu aktualnych implementacjach sztucznej sieci neuronowej jest prosty w porównaniu z neuronami biologicznymi. Symulacja mózgu prawdopodobnie musiałaby uchwycić szczegółowe zachowanie komórkowe neuronów biologicznych, obecnie rozumiane tylko w najszerszym zarysie. Narzut wprowadzony przez pełne modelowanie biologicznych, chemicznych i fizycznych szczegółów zachowania neuronowego (szczególnie w skali molekularnej) wymagałby mocy obliczeniowych o kilka rzędów wielkości większych niż szacunek Kurzweila. Ponadto, szacunki nie uwzględniają komórek glejowych, które są co najmniej tak liczne jak neurony i które mogą przewyższać liczbę neuronów nawet o 10: 1, a teraz wiadomo, że odgrywają rolę w procesach poznawczych.

    Obecne badania

    Istnieją pewne projekty badawcze, które badają symulację mózgu przy użyciu bardziej wyrafinowanych modeli neuronowych, wdrożonych na konwencjonalnych architekturach obliczeniowych. W projekcie Artificial Intelligence System wdrożono symulacje mózgu w czasie rzeczywistym (z 10 neuronami) w 2005 r. Symulacja 1 sekundy modelu zajęła 50 dni w klastrze 27 procesorów. W projekcie Blue Brain wykorzystano jedną z najszybszych architektur superkomputerów na świecie, platformę Blue Gene firmy IBM, w celu stworzenia symulacji w czasie rzeczywistym pojedynczej szczurze kolumny neokortykalnej składającej się z około 10 000 neuronów i 10 synaps w 2006 r. Celem długoterminowym jest zbudować szczegółową, funkcjonalną symulację procesów fizjologicznych w ludzkim mózgu: Nie jest niemożliwe zbudowanie ludzkiego mózgu i możemy to zrobić za 10 lat, powiedział Henry Markram, dyrektor Blue Brain Project w 2009 roku na TED konferencja w Oksfordzie. Pojawiły się również kontrowersyjne twierdzenia, że ​​symulowano mózg kota. Interfejsy neuro-krzemowe zostały zaproponowane jako alternatywna strategia wdrażania, która może być lepiej skalowana.

    Hans Moravec przyjął powyższe argumenty (mózgi są bardziej skomplikowane , neurony należy modelować bardziej szczegółowo) w artykule z 1997 r. Kiedy sprzęt komputerowy będzie pasował do ludzkiego mózgu?. Zmierzył on zdolność istniejącego oprogramowania do symulacji funkcjonalności tkanka nerwowa, szczególnie siatkówka. Jego wyniki nie zależą od liczby komórek glejowych ani od tego, jakiego rodzaju neurony przetwarzające wykonują.

    Rzeczywista złożoność modelowania neuronów biologicznych została zbadana w projekcie OpenWorm, który miał na celu pełną symulację robaka, który ma tylko 302 neurony w swojej sieci neuronowej (łącznie około 1000 komórek). Sieć neuronowa zwierzęcia została dobrze udokumentowana przed rozpoczęciem projektu. Jednak chociaż zadanie wydawało się na początku proste, modele oparte na ogólnej sieci neuronowej nie działały. Obecnie wysiłki koncentrują się na precyzyjnej emulacji neuronów biologicznych (częściowo na poziomie molekularnym), ale wyniku nie można jeszcze nazwać całkowitym sukcesem. Nawet jeśli liczba problemów do rozwiązania w modelu w skali człowiek-mózg nie jest proporcjonalna do liczby neuronów, ilość pracy na tej ścieżce jest oczywista.

    Krytyka podejść opartych na symulacji

    Podstawowa krytyka symulowanego podejścia do mózgu wywodzi się z ucieleśnionego poznania, gdzie ucieleśnienie człowieka jest traktowane jako istotny aspekt ludzkiej inteligencji. Wielu badaczy uważa, że ​​ucieleśnienie jest konieczne do uzasadnienia znaczenia. Jeśli ten pogląd jest prawidłowy, każdy w pełni funkcjonalny model mózgu będzie musiał obejmować więcej niż tylko neurony (tj. Ciało robotyczne). Goertzel proponuje wirtualne wcielenie (jak Second Life), ale nie wiadomo jeszcze, czy to wystarczy.

    Komputery stacjonarne wykorzystujące mikroprocesory o wydajności większej niż 10 cps (niestandardowe obliczenia jednostek Kurzweila na sekundę, patrz powyżej) są dostępne od 2005 r. Zgodnie z szacunkami mocy mózgu stosowanymi przez Kurzweila (i Moraveca), ten komputer powinien być w stanie wspieranie symulacji mózgu pszczół, ale pomimo pewnego zainteresowania taka symulacja nie istnieje. Istnieją co najmniej trzy powody:

    Model neuronu wydaje się być nadmiernie uproszczony (patrz następny rozdział).

    Nie ma wystarczającego zrozumienia wyższych procesów poznawczych, aby dokładnie ustalić, z czym koreluje aktywność neuronalna mózgu, obserwowana przy użyciu technik takich jak funkcjonalne obrazowanie rezonansu magnetycznego.

    Nawet jeśli nasze rozumienie poznania rozwinie się wystarczająco, wczesne programy symulacyjne będą prawdopodobnie bardzo nieefektywne i dlatego będą wymagać znacznie więcej sprzętu.

    Mózg organizmu, chociaż jest krytyczny, może nie stanowić odpowiedniej granicy dla modelu poznawczego. Aby symulować mózg pszczoły, może być konieczna symulacja ciała i środowiska. Teza Extended Mind formalizuje koncepcję filozoficzną, a badania nad głowonogami wykazały wyraźne przykłady systemu zdecentralizowanego.

    Ponadto skala ludzkiego mózgu nie jest obecnie dobrze ograniczona. Według niektórych szacunków ludzki mózg ma około 100 miliardów neuronów i 100 bilionów synaps. Innym szacunkiem jest 86 miliardów neuronów, z czego 16,3 miliarda znajduje się w korze mózgowej, a 69 miliardów w móżdżku. Synapsy komórek glejowych są obecnie nieskwantyfikowane, ale wiadomo, że są niezwykle liczne.

    Badania sztucznej świadomości

    Chociaż rola świadomości w silnej AI / AGI jest dyskusyjna, wielu badaczy AGI uważa badania, które badają możliwości wdrożenia świadomości za kluczowe. Na początku Igor Aleksanderargu stwierdził, że zasady tworzenia świadomej maszyny już istnieją, ale wytrenowanie takiej maszyny zajęłoby 40 lat.

    Związek z silną AI

    W 1980 roku filozof John Searle ukuł termin silna sztuczna inteligencja jako część swojego chińskiego argumentu pokojowego. Chciał rozróżnić dwie różne hipotezy dotyczące sztucznej inteligencji:

    System sztucznej inteligencji może myśleć i mieć umysł. (Słowo umysł ma szczególne znaczenie dla filozofów, jak jest używane w problemie ciała umysłu lub "filozofii umysłu).

    System sztucznej inteligencji może (tylko) działać tak, jak myśli i ma umysł.

    Pierwsza nazywa się hipotezą o silnej AI, a druga hipotezą o słabej AI, ponieważ pierwsza zawiera silniejsze stwierdzenie: zakłada się, że stało się coś specjalnego z maszyną, która wykracza poza wszystkie jej możliwości, które możemy przetestować. Searle określił hipotezę silnej AI jako silną AI. Takie użycie jest również powszechne w akademickich badaniach AI i podręcznikach.

    Słaba hipoteza AI jest równoważna z hipotezą, że możliwa jest sztuczna inteligencja ogólna. Według Russella i Norviga: Większość badaczy AI traktuje słabą hipotezę AI jako coś oczywistego i nie przejmuje się silną hipotezą AI.

    W przeciwieństwie do Searle, Kurzweil używa terminu silna AI, aby opisać każdy system sztucznej inteligencji, który działa tak, jakby miał umysł, niezależnie od tego, czy filozof byłby w stanie ustalić, czy rzeczywiście ma umysł, czy nie.

    Możliwe wyjaśnienia powolnego postępu badań nad AI

    Od czasu rozpoczęcia badań nad sztuczną inteligencją w 1956 r. Rozwój tej dziedziny z czasem spowolnił i utknął w martwym punkcie w celu stworzenia maszyn zdolnych do inteligentnego działania na poziomie ludzkim. Możliwym wyjaśnieniem tego opóźnienia jest brak wystarczającej ilości pamięci lub mocy obliczeniowej komputerów. Ponadto poziom złożoności, który łączy się z procesem badań nad AI, może również ograniczać postęp badań nad AI.

    Podczas gdy większość badaczy AI wierzy, że silną AI można osiągnąć w przyszłości, są tacy ludzie, jak Hubert Dreyfus i Roger Penrose, którzy zaprzeczają możliwości osiągnięcia silnej AI. John McCarthywas, jeden z różnych informatyków, którzy wierzą, że sztuczna inteligencja na poziomie ludzkim zostanie osiągnięta, ale daty nie można dokładnie przewidzieć.

    Ograniczenia pojęciowe są kolejnym możliwym powodem powolności badań AI. Naukowcy zajmujący się AI mogą potrzebować zmodyfikować ramy koncepcyjne swojej dyscypliny, aby zapewnić silniejszą bazę i wkład w dążenie do osiągnięcia silnej AI. Jak napisał William Clocksin w 2003 roku: ramy zaczynają się od obserwacji Weizenbauma, że ​​inteligencja objawia się tylko w odniesieniu do określonych kontekstów społecznych i kulturowych.

    Co więcej, badacze sztucznej inteligencji byli w stanie stworzyć komputery, które mogą wykonywać zadania, które są skomplikowane dla ludzi, ale odwrotnie, mieli trudności z opracowaniem komputera, który byłby w stanie wykonywać zadania, które są łatwe do wykonania dla ludzi (paradoks Moraveca). Problem opisany przez Davida Gelerntera polega na tym, że niektórzy uważają, że myślenie i rozumowanie są równoważne. Jednak pomysł, czy myśli i ich twórca są izolowani indywidualnie, zaintrygował badaczy AI.

    Problemy, które napotkano w badaniach nad AI w ciągu ostatnich dziesięcioleci, dodatkowo utrudniają postęp AI. Nieudane prognozy obiecane przez badaczy AI i brak pełnego zrozumienia ludzkich zachowań pomogły osłabić pierwotną ideę AI na poziomie ludzkim. Chociaż postęp badań nad AI przyniósł zarówno poprawę, jak i rozczarowanie, większość badaczy wykazała optymizm o potencjalnym osiągnięciu celu AI w XXI wieku.

    Inne możliwe przyczyny zostały zaproponowane dla długich badań nad postępem silnej AI. Skomplikowanie problemów naukowych i potrzeba pełnego zrozumienia ludzkiego mózgu poprzez psychologię i neurofizjologię ograniczyły wielu badaczom emulowanie funkcji ludzkiego mózgu do sprzętu komputerowego. Wielu badaczy nie docenia żadnych wątpliwości związanych z przyszłymi prognozami sztucznej inteligencji, ale bez poważnego potraktowania tych problemów ludzie mogą przeoczyć rozwiązania problematycznych pytań.

    Clocksin mówi, że ograniczeniem pojęciowym, które może utrudniać postęp badań nad sztuczną inteligencją jest to, że ludzie mogą używać niewłaściwych technik do programów komputerowych i wdrażania sprzętu. Gdy badacze AI po raz pierwszy zaczęli dążyć do celu sztucznej inteligencji, głównym zainteresowaniem było ludzkie rozumowanie. Naukowcy mieli nadzieję ustanowić obliczeniowe modele ludzkiej wiedzy poprzez rozumowanie i dowiedzieć się, jak zaprojektować komputer z określonym zadaniem poznawczym.

    Praktyka abstrakcji, którą ludzie mają tendencję do redefiniowania podczas pracy z określonym kontekstem w badaniach, zapewnia badaczom skoncentrowanie się na zaledwie kilku koncepcjach. Najbardziej produktywne wykorzystanie abstrakcji w badaniach nad sztuczną inteligencją pochodzi z planowania i rozwiązywania problemów. Chociaż celem jest zwiększenie szybkości obliczeń, rola abstrakcji stawia pytania dotyczące zaangażowania operatorów abstrakcji.

    Możliwy powód spowolnienia w AI dotyczy uznania przez wielu badaczy AI, że heurystyka to sekcja, która zawiera znaczące naruszenie wydajności komputera i wydajności człowieka. Określone funkcje zaprogramowane na komputerze mogą być w stanie uwzględnić wiele wymagań które pozwalają dopasować ludzką inteligencję. Wyjaśnienia te niekoniecznie muszą być podstawowymi przyczynami opóźnienia w osiągnięciu silnej sztucznej inteligencji, ale są powszechnie akceptowane przez wielu badaczy.

    Wielu badaczy sztucznej inteligencji debatuje nad tym, czy maszyny powinny być tworzone z emocjami. W typowych modelach sztucznej inteligencji nie ma emocji, a niektórzy badacze twierdzą, że programowanie emocji w maszynach pozwala im mieć własne zdanie. Emocja podsumowuje doświadczenia ludzi, ponieważ pozwala im pamiętać te doświadczenia. David Gelernter pisze: Żaden komputer nie będzie kreatywny, dopóki nie będzie w stanie zasymulować wszystkich niuansów ludzkich emocji. Ta troska o emocje stanowiła problem dla badaczy AI i łączy się z koncepcją silnej AI w miarę postępu badań w przyszłości.

    Świadomość

    Istnieją inne aspekty ludzkiego umysłu oprócz inteligencji, które są istotne dla koncepcji silnej AI, które odgrywają główną rolę w science fiction i etyce sztucznej inteligencji:

    świadomość: mieć subiektywne doświadczenie i myśl.

    Samoświadomość: Być świadomym siebie jako odrębnej jednostki, szczególnie być świadomym własnych myśli.

    Wrażliwość: zdolność subiektywnego odczuwania percepcji lub emocji.

    Mądrość: zdolność do mądrości.

    Cechy te mają wymiar moralny, ponieważ maszyna z taką formą silnej AI może mieć prawa, analogiczne do praw zwierząt innych niż ludzie. Ponadto Bill Joy, między innymi, argumentuje, że maszyna o tych cechach może stanowić zagrożenie dla życia lub godności człowieka. Pozostaje do ustalenia, czy którakolwiek z tych cech jest niezbędna do silnej AI. Rola świadomości nie jest jasna i obecnie nie ma uzgodnionego testu na jej obecność. Jeśli maszyna zbudowana jest z urządzeniem symulującym neuronalne korelaty świadomości, czy automatycznie posiadałaby samoświadomość? Możliwe jest również, że niektóre z tych właściwości, takie jak wrażliwość, naturalnie wyłaniają się z w pełni inteligentnej maszyny lub że naturalne staje się przypisywanie tych właściwości maszynom, gdy zaczną działać w sposób wyraźnie inteligentny. Na przykład inteligentne działanie może być wystarczające dla wrażliwości, a nie na odwrót.

    W science fiction AGI wiąże się z takimi cechami, jak świadomość, wrażliwość, mądrość i samoświadomość obserwowane u żywych istot. Jednak, zdaniem filozofa Johna Searle, pozostaje otwarte pytanie, czy ogólna inteligencja jest wystarczająca dla świadomości. Silnej AI (zdefiniowanej powyżej przez Raya Kurzweila) nie należy mylić z silną hipotezą Searle'a. Hipotezą silnej AI jest twierdzenie, że komputer, który zachowuje się tak inteligentnie jak człowiek, musi koniecznie mieć umysł i świadomość. AGI odnosi się tylko do ilości inteligencji wyświetlanej przez maszynę, z umysłem lub bez niego.

    Kontrowersje i niebezpieczeństwa

    Wykonalność

    Opinie różnią się zarówno w kwestii tego, czy i kiedy przybędzie sztuczna inteligencja ogólna. Z jednej strony, pionier sztucznej inteligencji Herbert A. Simonwott napisał w 1965 roku: maszyny będą w stanie w ciągu dwudziestu lat wykonywać każdą pracę, którą może wykonać człowiek. Jednak ta prognoza się nie sprawdziła. Współzałożyciel Microsoftu Paul Allen wierzył, że taka inteligencja jest mało prawdopodobna w XXI wieku, ponieważ wymagałaby nieprzewidzianych i zasadniczo nieprzewidywalnych przełomów oraz naukowo głębokiego zrozumienia poznania. W The Guardian robot Alan Winfield stwierdził, że przepaść między nowoczesnym komputerem a sztuczną inteligencją na poziomie ludzkim jest tak duża, jak przepaść między obecnym lotem kosmicznym a praktycznym lotem kosmicznym szybszym niż światło. Opinie ekspertów AI na temat możliwości zastosowania wosku AGI i minęły i być może nastąpił odrodzenie w 2010 roku. Cztery ankiety przeprowadzone w 2012 r. I 2013 r. Sugerowały, że mediana przypuszczeń, kiedy będą mieli 50% pewności, że AGI przybędzie, wyniosła 2040–2050, w zależności od ankiety, przy czym średnia to 2081. Warto również odnotować 16,5% eksperci odpowiedzieli nigdy, gdy zadali to samo pytanie, ale z 90% pewnością. Dalsze bieżące rozważania dotyczące postępu AGI można znaleźć poniżej Testy potwierdzające AGI na poziomie ludzkim i testy IQ AGI.

    Potencjalne zagrożenie dla ludzkiej egzystencji

    Stworzenie sztucznej inteligencji ogólnej może mieć reperkusje tak wielkie i tak złożone, że może nie być możliwe przewidzenie, co będzie potem. Zatem wydarzenie w hipotetycznej przyszłości osiągnięcia silnej sztucznej inteligencji nazywa się osobliwością technologiczną, ponieważ teoretycznie nie można tego przeoczyć. Ale to nie powstrzymało filozofów i badaczy od zgadywania, co mogą zrobić inteligentne komputery lub roboty przyszłości, w tym tworzenia utopii poprzez bycie naszymi przyjaciółmi lub przytłaczanie nas w przejęciu AI. Ta ostatnia możliwość jest szczególnie niepokojąca, ponieważ stwarza ryzyko egzystencjalne dla ludzkości.

    Maszyny samoreplikujące się

    Inteligentne komputery lub roboty byłyby w stanie zaprojektować i wyprodukować ulepszone wersje siebie. Rosnąca populacja inteligentnych robotów mogłaby prawdopodobnie konkurować z gorszymi ludźmi na rynkach pracy, w biznesie, w nauce, w polityce (przestrzegając praw robotów) i technologicznie, socjologicznie (działając jako jeden) i wojskowo. Nawet w dzisiejszych czasach wiele pseudo-inteligentnych maszyn obsługiwanych przez słabą sztuczną inteligencję zostało już wykonanych. Na przykład roboty dla domów, opieki zdrowotnej, hoteli i restauracji zautomatyzowały wiele części naszego życia: wirtualne boty zmieniają obsługę klienta w samodzielne usługi, aplikacje AI Big Data zastępują menedżerów portfela, a roboty społeczne, takie jak Pepper, zastępują ludzkie pozdrowienia w celu obsługi klienta.

    Emergent superintelligence

    Gdyby badanie silnej sztucznej inteligencji wytworzyło wystarczająco inteligentne oprogramowanie, byłoby ono w stanie przeprogramować i poprawić się - funkcja zwana rekurencyjnym samodoskonaleniem. Wtedy byłoby jeszcze lepiej poprawić się i prawdopodobnie kontynuowałoby to w szybko rosnącym cyklu, prowadząc do eksplozji inteligencji i pojawienia się superinteligencji. Taka inteligencja nie miałaby ograniczeń ludzkiego intelektu i mogłaby być w stanie wymyślić lub odkryć prawie wszystko.

    Hiper-inteligentne oprogramowanie może niekoniecznie decydować się na kontynuację istnienia ludzkości i może być niezwykle trudne do powstrzymania. Temat ten ostatnio również zaczął być omawiany w publikacjach akademickich jako realne źródło zagrożeń dla cywilizacji, ludzi i planety Ziemia.

    Jedną z propozycji rozwiązania tego problemu jest upewnienie się, że pierwsza ogólnie inteligentna sztuczna inteligencja jest przyjazną sztuczną inteligencją, która następnie dołożyłaby starań, aby później opracowane sztucznej inteligencji były dla nas również miłe. Ale przyjazna sztuczna inteligencja jest trudniejsza do stworzenia niż zwykła AGI i dlatego w wyścigu między nimi jest prawdopodobne, że przyjazna AI zostanie opracowana jako pierwsza. Ponadto nie ma gwarancji, że przyjazna AI pozostanie przyjazna lub że jej potomstwo również będzie dobre.

    Historia sztucznej inteligencji

    W latach 40. i 50. garstka naukowców z różnych dziedzin (matematyka, psychologia, inżynieria, ekonomia i nauki polityczne) zaczęła dyskutować o możliwości stworzenia sztucznego mózgu. Dziedzina badań nad sztuczną inteligencją została założona jako dyscyplina naukowa w 1956 roku.

    Cybernetyka i wczesne

    Enjoying the preview?
    Page 1 of 1