Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

ปัญญาประดิษฐ์: การปฏิวัติอุตสาหกรรมครั้งที่สี่
ปัญญาประดิษฐ์: การปฏิวัติอุตสาหกรรมครั้งที่สี่
ปัญญาประดิษฐ์: การปฏิวัติอุตสาหกรรมครั้งที่สี่
Ebook481 pages1 hour

ปัญญาประดิษฐ์: การปฏิวัติอุตสาหกรรมครั้งที่สี่

Rating: 0 out of 5 stars

()

Read preview

About this ebook

การปฏิวัติอุตสาหกรรมครั้งที่สี่แสดงให้เห็นถึงการเปลี่ยนแปลงขั้นพื้นฐานในวิธีที่เราอาศัยทํางานและมีความสัมพันธ์ซึ่งกันและกัน มันเป็นบทใหม่ในการพัฒนามนุษย์เปิดใช้งานโดยความก้าวหน้าทางเทคโนโลยีที่ไม่ธรรมดาซึ่งสอดคล้องกับการปฏิวัติอุตสาหกรรมครั้งแรกที่สองและครั้งที่สาม ความก้าวหน้าเหล่านี้กําลังรวมโลกทางกายภาพดิจิตอลและชีวภาพในรูปแบบที่สร้างทั้งคําสัญญาและอันตรายที่อาจเกิดขึ้น ความเร็วความกว้างและความลึกของการปฏิวัติครั้งนี้บังคับให้เราคิดใหม่ว่าประเทศต่างๆพัฒนาอย่างไรองค์กรสร้างคุณค่าและแม้แต่ความหมายของการเป็นมนุษย์ ปัญญาประดิษฐ์ในปัจจุบันเป็นที่รู้จักกันดีว่า AI ที่แคบ (หรือ AI ที่อ่อนแอ) ซึ่งมันถูกออกแบบมาเพื่อทํางานที่แคบ (เช่นการจดจําใบหน้าหรือการค้นหาทางอินเทอร์เน็ตหรือการขับรถเท่านั้น) อย่างไรก็ตามเป้าหมายระยะยาวของนักวิจัยหลายคนคือการสร้าง AI ทั่วไป (AGI หรือ AI ที่แข็งแกร่ง) ในขณะที่ AI ที่แคบอาจมีประสิทธิภาพสูงกว่ามนุษย์ในสิ่งที่งานเฉพาะของมันคือเช่นการเล่นหมากรุกหรือการแก้สมการAGI จะดีกว่ามนุษย์ในเกือบทุกงานเกี่ยวกับความรู้ความเข้าใจ
Authors: Daniel Mikelsten, Vasil Teigens, Peter Skalfist

Languageภาษาไทย
Release dateSep 16, 2020
ISBN9781005998844
ปัญญาประดิษฐ์: การปฏิวัติอุตสาหกรรมครั้งที่สี่
Author

Peter Skalfist

Peter Skalfist, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Related authors

Reviews for ปัญญาประดิษฐ์

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    ปัญญาประดิษฐ์ - Peter Skalfist

    บทนำ

    การปฏิวัติอุตสาหกรรมครั้งที่สี่แสดงให้เห็นถึงการเปลี่ยนแปลงขั้นพื้นฐานในวิธีที่เราอาศัยทำงานและมีความสัมพันธ์ซึ่งกันและกัน มันเป็นบทใหม่ในการพัฒนามนุษย์เปิดใช้งานโดยความก้าวหน้าทางเทคโนโลยีที่ไม่ธรรมดาซึ่งสอดคล้องกับการปฏิวัติอุตสาหกรรมครั้งแรกที่สองและครั้งที่สาม ความก้าวหน้าเหล่านี้กำลังรวมโลกทางกายภาพดิจิตอลและชีวภาพในรูปแบบที่สร้างทั้งคำสัญญาและอันตรายที่อาจเกิดขึ้น ความเร็วความกว้างและความลึกของการปฏิวัติครั้งนี้บังคับให้เราคิดใหม่ว่าประเทศต่างๆพัฒนาอย่างไรองค์กรสร้างคุณค่าและแม้แต่ความหมายของการเป็นมนุษย์

    จาก SIRI ไปจนถึงรถยนต์ที่ขับเคลื่อนด้วยตนเองปัญญาประดิษฐ์ (AI) กำลังก้าวหน้าอย่างรวดเร็ว ในขณะที่นิยายวิทยาศาสตร์มักแสดงให้เห็นว่า AI เป็นหุ่นยนต์ที่มีลักษณะคล้ายมนุษย์ แต่ AI สามารถรวมทุกอย่างตั้งแต่อัลกอริธึมการค้นหาของ Google ไปจนถึงวัตสันของไอบีเอ็มไปจนถึงอาวุธอิสระ

    ปัญญาประดิษฐ์ในปัจจุบันเป็นที่รู้จักกันดีว่า AI ที่แคบ (หรือ AI ที่อ่อนแอ) ซึ่งมันถูกออกแบบมาเพื่อทำงานที่แคบ (เช่นการจดจำใบหน้าหรือการค้นหาทางอินเทอร์เน็ตหรือการขับรถเท่านั้น) อย่างไรก็ตามเป้าหมายระยะยาวของนักวิจัยหลายคนคือการสร้าง AI ทั่วไป (AGI หรือ AI ที่แข็งแกร่ง) ในขณะที่ AI ที่แคบอาจมีประสิทธิภาพสูงกว่ามนุษย์ในสิ่งที่งานเฉพาะของมันคือเช่นการเล่นหมากรุกหรือการแก้สมการ AGI จะดีกว่ามนุษย์ในเกือบทุกงานเกี่ยวกับความรู้ความเข้าใจ

    การปฏิวัติอุตสาหกรรมครั้งที่สี่เป็นมากกว่าการเปลี่ยนแปลงที่ขับเคลื่อนด้วยเทคโนโลยี มันเป็นโอกาสที่จะช่วยเหลือทุกคนรวมถึงผู้นำผู้กำหนดนโยบายและผู้คนจากกลุ่มรายได้และทุกประเทศเพื่อควบคุมเทคโนโลยีที่มาบรรจบกันเพื่อสร้างอนาคตที่ครอบคลุมและเป็นศูนย์กลางของมนุษย์ โอกาสที่แท้จริงคือการมองข้ามเทคโนโลยีและค้นหาวิธีที่จะทำให้คนจำนวนมากที่สุดมีความสามารถในการสร้างผลกระทบเชิงบวกต่อครอบครัวองค์กรและชุมชนของพวกเขา

    ปัญญาประดิษฐ์ทั่วไป

    ปัญญาประดิษฐ์ทั่วไป (AGI) เป็นหน่วยสืบราชการลับของเครื่องจักรที่สามารถเข้าใจหรือเรียนรู้งานทางปัญญาใด ๆ ที่มนุษย์สามารถทำได้ มันเป็นเป้าหมายหลักของการวิจัยปัญญาประดิษฐ์และหัวข้อทั่วไปในนิยายวิทยาศาสตร์และการศึกษาอนาคต AGI สามารถเรียกว่า AI ที่แข็งแกร่ง AI เต็มรูปแบบหรือการกระทำที่ชาญฉลาดทั่วไป (แหล่งข้อมูลทางวิชาการบางแห่งสงวนคำว่า AI ที่แข็งแกร่ง ไว้สำหรับเครื่องจักรที่สามารถมีสติได้) เจ้าหน้าที่บางคนเน้นความแตกต่างระหว่าง AI ที่แข็งแกร่งและ AI ที่ใช้ (หรือที่เรียกว่า AI ที่แคบหรือ AI ที่อ่อนแอ): การใช้ซอฟต์แวร์เพื่อศึกษาหรือบรรลุภารกิจการแก้ปัญหาหรือให้เหตุผลที่เฉพาะเจาะจง AI ที่อ่อนแอตรงกันข้ามกับ AI ที่แข็งแกร่งไม่ได้พยายามแสดงความสามารถด้านการรู้คิดของมนุษย์อย่างเต็มรูปแบบ

    มีการเสนอเกณฑ์ความฉลาดทางต่าง ๆ (ที่มีชื่อเสียงมากที่สุดในการทดสอบทัวริง) แต่จนถึงปัจจุบันไม่มีคำจำกัดความที่สอดคล้องกับทุกคน อย่างไรก็ตามมีข้อตกลงอย่างกว้างขวางในหมู่นักวิจัยด้านปัญญาประดิษฐ์ว่าต้องมีความฉลาดทางปัญญาดังต่อไปนี้:

    เหตุผลใช้กลยุทธ์แก้ปริศนาและตัดสินภายใต้ความไม่แน่นอน

    เป็นตัวแทนของความรู้รวมถึงความรู้ทั่วไป

    วางแผน;

    เรียนรู้;

    สื่อสารด้วยภาษาธรรมชาติ

    และรวมทักษะเหล่านี้ทั้งหมดเข้ากับเป้าหมายทั่วไป

    ความสามารถที่สำคัญอื่น ๆ ได้แก่ ความสามารถในการรับรู้ (เช่นดู) และความสามารถในการกระทำ (เช่นเคลื่อนย้ายและปรับเปลี่ยนวัตถุ) ในโลกที่ต้องสังเกตพฤติกรรมที่ชาญฉลาด ซึ่งรวมถึงความสามารถในการตรวจจับและตอบสนองต่ออันตราย วิธีการแบบสหวิทยาการจำนวนมากเพื่อปัญญา (เช่นวิทยาศาสตร์ความรู้ความเข้าใจความฉลาดทางคอมพิวเตอร์และการตัดสินใจ) มีแนวโน้มที่จะเน้นความจำเป็นที่จะต้องพิจารณาคุณสมบัติเพิ่มเติมเช่นจินตนาการ (ถ่ายเป็นความสามารถในการสร้างภาพจิตและแนวคิดที่ไม่ได้ตั้งโปรแกรม) และเอกราชคอมพิวเตอร์ ระบบที่แสดงความสามารถเหล่านี้มีอยู่มากมาย (เช่นดูการคำนวณเชิงสร้างสรรค์การใช้เหตุผลอัตโนมัติระบบสนับสนุนการตัดสินใจหุ่นยนต์การคำนวณเชิงวิวัฒนาการตัวแทนอัจฉริยะ) แต่ยังไม่ถึงระดับมนุษย์

    การทดสอบเพื่อยืนยัน AGI ระดับมนุษย์

    การทดสอบของทัวริง (ทัวริง) เครื่องจักรและมนุษย์มองเห็นคู่สนทนาที่มองไม่เห็นด้วยมนุษย์คนที่สองซึ่งต้องประเมินว่าทั้งสองเป็นเครื่องจักรซึ่งผ่านการทดสอบว่าสามารถหลอกผู้ประเมินได้อย่างมีนัยสำคัญหรือไม่ หมายเหตุ: ทัวริงไม่ได้กำหนดสิ่งที่ควรมีคุณสมบัติเป็นหน่วยสืบราชการลับเท่านั้นที่รู้ว่ามันเป็นเครื่องควรตัดสิทธิ์มัน การทดสอบกาแฟ (Wozniak) เครื่องจำเป็นต้องป้อนบ้านชาวอเมริกันโดยเฉลี่ยและหาวิธีทำกาแฟ: ค้นหาเครื่องชงกาแฟค้นหากาแฟเติมน้ำหาแก้วและชงกาแฟโดยกดปุ่มที่เหมาะสม การทดสอบนักศึกษาวิทยาลัยหุ่นยนต์ (Goertzel) เครื่องลงทะเบียนเรียนในมหาวิทยาลัยการเรียนและผ่านชั้นเรียนเดียวกับที่มนุษย์ต้องการและได้รับปริญญา แบบทดสอบการจ้างงาน (Nilsson) เครื่องจักรทำงานเป็นงานที่มีความสำคัญทางเศรษฐกิจโดยปฏิบัติงานอย่างน้อยก็กับมนุษย์ในงานเดียวกัน

    การทดสอบ IQ AGI

    Chineseresesersers Feng Liu, Yong Shi และ Ying Liu ทำการทดสอบความฉลาดทางปัญญาในช่วงฤดูร้อนปี 2560 โดยมี AI ที่อ่อนแอและสามารถเข้าถึงได้ทั่วไปเช่น Google AI หรือ Apple Siri และอื่น ๆ ที่สูงสุด AI เหล่านี้มีค่าประมาณ 47 ซึ่งตรงกับเด็กอายุหกขวบในชั้นแรก ผู้ใหญ่มาโดยเฉลี่ยประมาณ 100 คน ในปี 2557 มีการทดสอบที่คล้ายคลึงกันซึ่ง AI นั้นมีค่าสูงสุดถึง 27

    ปัญหาที่ต้องใช้ AGI ในการแก้ไข

    ปัญหาที่ยากที่สุดสำหรับคอมพิวเตอร์เป็นที่รู้จักกันอย่างไม่เป็นทางการว่า AI-complete หรือ AI-hard ซึ่งหมายความว่าการแก้ปัญหานั้นเทียบเท่ากับความถนัดทั่วไปของความฉลาดของมนุษย์หรือ AI ที่แข็งแกร่งเกินความสามารถของอัลกอริทึมเฉพาะวัตถุประสงค์

    ปัญหา AI ที่สมบูรณ์นั้นถูกตั้งสมมติฐานให้รวมถึงการมองเห็นด้วยคอมพิวเตอร์ทั่วไปการเข้าใจภาษาธรรมชาติและการจัดการกับสถานการณ์ที่ไม่คาดคิดในขณะที่แก้ปัญหาโลกแห่งความจริง

    ปัญหา AI ที่สมบูรณ์ไม่สามารถแก้ไขได้ด้วยเทคโนโลยีคอมพิวเตอร์ปัจจุบันเพียงอย่างเดียวและยังต้องใช้การคำนวณของมนุษย์ คุณสมบัตินี้อาจเป็นประโยชน์ตัวอย่างเช่นการทดสอบการมีอยู่ของมนุษย์ตามที่ CAPTCHAs ตั้งเป้าไว้ และเพื่อความปลอดภัยของคอมพิวเตอร์เพื่อขับไล่การโจมตีที่ดุร้าย

    การวิจัย AGI

    AI คลาสสิก

    การวิจัย AI สมัยใหม่เริ่มขึ้นในกลางปี ​​1950 นักวิจัย AI รุ่นแรกเชื่อว่าปัญญาประดิษฐ์ทั่วไปเป็นไปได้และมันจะมีอยู่ในเวลาเพียงไม่กี่ทศวรรษ ดังที่ผู้บุกเบิก AI ของเฮอร์เบิร์ตเอ. ไซมอนเขียนในปี 2508: เครื่องจักรจะสามารถภายในยี่สิบปีของการทำงานใด ๆ ที่มนุษย์สามารถทำได้ การคาดการณ์ของพวกเขาคือแรงบันดาลใจให้กับสแตนลีย์คูบริกและอาร์เทอร์ซีคลาร์กตัวละคร HAL 9000 ที่รวบรวมสิ่งที่นักวิจัย AI เชื่อว่าพวกเขาสามารถสร้างขึ้นได้ในปี 2544 ผู้บุกเบิก AI มาร์วินมินสกีเป็นผู้ให้คำปรึกษา การทำนายฉันทามติของเวลา; ครีเวียร์อ้างว่าเขาพูดเรื่องนี้ในปี 2510 ในยุคหนึ่ง... ปัญหาของการสร้าง 'ปัญญาประดิษฐ์' จะได้รับการแก้ไขอย่างเป็นจริงเป็นจัง มินสกีระบุว่าเขาถูกหลอก

    อย่างไรก็ตามในช่วงต้นปี 1970 ก็เห็นได้ชัดว่านักวิจัยได้ประเมินความยากลำบากของโครงการ หน่วยงานด้านเงินทุนมีข้อสงสัยใน AGI และทำให้นักวิจัยเพิ่มแรงกดดันในการผลิต การใช้ AI ที่เป็นประโยชน์ เมื่อยุค 80 เริ่มโครงการสร้างคอมพิวเตอร์ยุคที่ห้าของญี่ปุ่นได้ฟื้นฟูความสนใจใน AGI โดยกำหนดระยะเวลาสิบปีซึ่งรวมถึงเป้าหมายของ AGI เช่น ดำเนินการสนทนาอย่างเป็นกันเอง ในการตอบสนองต่อสิ่งนี้และความสำเร็จของระบบผู้เชี่ยวชาญทั้งภาคอุตสาหกรรมและรัฐบาลได้อัดฉีดเงินกลับเข้ามาในสนามอย่างไรก็ตามความเชื่อมั่นใน AI ที่ถล่มทลายอย่างน่าทึ่งในช่วงปลายทศวรรษ 1980 และเป้าหมายของโครงการคอมพิวเตอร์ยุคที่ห้าก็ไม่เคยสำเร็จ เวลาในรอบ 20 ปีนักวิจัย AI ที่คาดการณ์ถึงความสำเร็จที่ใกล้เคียงของ AGI นั้นได้ถูกแสดงให้เห็นว่าเป็นความเข้าใจผิดขั้นพื้นฐานโดยปี 1990 นักวิจัย AI ได้รับชื่อเสียงในการทำสัญญาที่ไร้ประโยชน์ พวกเขาลังเลที่จะคาดการณ์และหลีกเลี่ยงการกล่าวถึงปัญญาประดิษฐ์ ระดับมนุษย์ เพราะกลัวว่าจะถูกระบุว่าเป็น

    การวิจัย AI ที่แคบ

    ในปี 1990 และศตวรรษที่ 21 ต้นกระแสหลัก AI ได้ประสบความสำเร็จในเชิงพาณิชย์มากขึ้นและความน่าเชื่อถือทางวิชาการโดยมุ่งเน้นไปที่ปัญหาย่อยเฉพาะที่พวกเขาสามารถสร้างผลลัพธ์ที่ตรวจสอบได้และการใช้งานเชิงพาณิชย์เช่นเครือข่ายประสาทเทียม ขณะนี้ระบบที่ใช้ AI ได้ถูกนำมาใช้อย่างกว้างขวางทั่วทั้งอุตสาหกรรมเทคโนโลยีและการวิจัยในหลอดเลือดดำนี้ได้รับการสนับสนุนอย่างมากทั้งในแวดวงและอุตสาหกรรม ขณะนี้การพัฒนาในด้านนี้ได้รับการพิจารณาแนวโน้มที่เกิดขึ้นใหม่และคาดว่าจะครบกำหนดในระยะเวลากว่า 10 ปี

    นักวิจัยด้าน AI ส่วนใหญ่หวังว่า AI ที่แข็งแกร่งสามารถพัฒนาได้โดยการรวมโปรแกรมที่ช่วยแก้ปัญหาย่อยต่าง ๆ โดยใช้สถาปัตยกรรมตัวแทนแบบบูรณาการสถาปัตยกรรมความรู้ความเข้าใจหรือสถาปัตยกรรมด้านย่อย Hans Moravec เขียนในปี 1988:

    "เอี่ยมมั่นใจว่าวันนี้เส้นทางจากล่างสู่ปัญญาประดิษฐ์จะพบกับเส้นทางจากบนลงล่างแบบดั้งเดิมมากกว่าครึ่งทางพร้อมที่จะให้ความสามารถในโลกแห่งความเป็นจริงและความรู้ทั่วไปที่เข้าใจยากในโปรแกรมการใช้เหตุผล จะส่งผลให้เมื่อเข็มทองเปรียบเทียบถูกผลักดันรวมกันทั้งสองความพยายาม.

    อย่างไรก็ตามแม้ปรัชญาพื้นฐานนี้ได้ถูกโต้แย้งแล้ว ตัวอย่างเช่น Stevan Harnad จาก Princeton ได้สรุปบทความของเขาเกี่ยวกับสมมติฐานการต่อสายดินสัญลักษณ์ของ 1990 โดยระบุว่า:

    The Expectation มักถูกเปล่งออกมาว่า top-down (symbolic) approachesto model cognition จะได้พบกับ bottom-up (ประสาทสัมผัส) เข้าใกล้ที่ไหนสักแห่งระหว่างการพิจารณาหากการพิจารณาเหตุผลในบทความนี้มีความถูกต้องแล้ว มีเพียงเส้นทางที่ทำงานได้จริงจากการรับรู้ถึงสัญลักษณ์: จากพื้นดินขึ้นระดับสัญลักษณ์ที่ลอยได้ฟรีเช่นระดับซอฟต์แวร์ของคอมพิวเตอร์จะไม่สามารถเข้าถึงเส้นทางนี้ได้ (หรือกลับกัน) - และไม่ชัดเจนว่าทำไมเราถึงควร พยายามที่จะไปถึงระดับดังกล่าวเพราะดูเหมือนว่าการไปถึงที่นั่นจะเท่ากับการถอนสัญลักษณ์ของเราออกจากความหมายที่แท้จริงของพวกเขา (ดังนั้นเพียงแค่ลดระดับตัวเองไปสู่การทำงานเทียบเท่ากับคอมพิวเตอร์ที่ตั้งโปรแกรมได้)

    การวิจัยปัญญาประดิษฐ์ทั่วไปที่ทันสมัย

    ปัญญาประดิษฐ์ทั่วไป (AGI) อธิบายการวิจัยที่มีวัตถุประสงค์เพื่อสร้างเครื่องจักรที่มีความสามารถในการกระทำอัจฉริยะทั่วไป คำนี้ถูกนำมาใช้เป็นช่วงต้นของปี 1997 โดย Mark Gubrudin เพื่อหารือเกี่ยวกับผลกระทบของการผลิตและปฏิบัติการทางทหารโดยอัตโนมัติ คำดังกล่าวได้รับการแนะนำและเป็นที่นิยมโดย Shane Legg และ Ben Goertzel ในปี 2545 เป้าหมายการวิจัยนั้นมีอายุมากกว่าเช่นโครงการ Cyc ของ Doug Lenat (ที่เริ่มในปี 1984) และโครงการ Soar ของ Allen Newell ถือเป็นขอบเขตของ AGI กิจกรรมการวิจัยของ AGI ในปี 2549 บรรยายโดย Pei Wang และ Ben Goertzelas การผลิตสิ่งพิมพ์และผลลัพธ์เบื้องต้น โรงเรียนภาคฤดูร้อนแห่งแรกใน AGI จัดขึ้นที่เซียะเหมินประเทศจีนในปี 2552 โดยห้องปฏิบัติการสมองประดิษฐ์และ OpenCog ของมหาวิทยาลัยเซียะเหมิน หลักสูตรแรกของมหาวิทยาลัยได้รับในปี 2010 และ 2011 ที่ Plovdiv University, Bulgaria โดย Todor Arnaudov MIT นำเสนอหลักสูตรที่ AGI ในปี 2561 จัดโดย Lex Fridman และมีวิทยากรรับเชิญจำนวนมาก อย่างไรก็ตามในขณะนี้นักวิจัย AI ส่วนใหญ่ให้ความสนใจเพียงเล็กน้อยกับ AGI โดยมีบางคนอ้างว่าเชาวน์ปัญญานั้นซับซ้อนเกินกว่าจะจำลองแบบได้อย่างสมบูรณ์ในระยะเวลาอันใกล้ อย่างไรก็ตามมีนักวิทยาศาสตร์คอมพิวเตอร์จำนวนน้อยที่ทำงานด้านการวิจัยของ AGI และหลายคนในกลุ่มนี้มีส่วนร่วมในการจัดประชุม AGI การวิจัยมีความหลากหลายอย่างมากและมักบุกเบิกในธรรมชาติ ในการแนะนำหนังสือของเขา Goertzel กล่าวว่าการประเมินเวลาที่ต้องใช้ก่อนที่ความยืดหยุ่นอย่างแท้จริงจะถูกสร้างขึ้น AGI แตกต่างกันจาก 10 ปีไปกว่าศตวรรษ แต่ฉันทามติในชุมชนการวิจัยของ AGI ดูเหมือนว่าเส้นเวลาที่พูดถึงโดย Ray Kurzweil ใกล้ (เช่นระหว่างปี 2015 ถึงปี 2045) เป็นไปได้

    อย่างไรก็ตามนักวิจัย AI หลักส่วนใหญ่สงสัยว่าความคืบหน้าจะเป็นไปอย่างรวดเร็ว องค์กรที่ดำเนินการตาม AGI อย่างชัดเจนรวมถึงห้องปฏิบัติการ AI ของสวิส, Nnaisense, Vicarious, Maluuba, มูลนิธิ OpenCog, Adaptive AI, LIDA, และ Numenta และ Redwood Neuroscience Institute ที่เกี่ยวข้อง นอกจากนี้ยังมีการจัดตั้งองค์กรต่างๆเช่นสถาบันวิจัยอัจฉริยะทางกลไก (Machine Intelligence) และ OpenAI เพื่อให้มีอิทธิพลต่อเส้นทางการพัฒนาของ AGI ในที่สุดโครงการต่าง ๆ เช่น Human Brain Project มีเป้าหมายในการสร้างแบบจำลองการทำงานของสมองมนุษย์ A2017 การสำรวจของ AGI แบ่งออกเป็นสี่สิบห้ารู้จัก โครงการ R & D ที่ใช้งานอยู่ ที่ชัดเจนหรือโดยปริยาย (ผ่านการวิจัยตีพิมพ์) วิจัย AGI กับสามที่ใหญ่ที่สุด DeepMind โครงการสมองของมนุษย์และ OpenAI (ตามบทความ)

    ในปี 2019 โปรแกรมเมอร์วิดีโอเกมและวิศวกรการบินและอวกาศ John Carmack ประกาศแผนการวิจัย AGI

    DeepMind คือความสำเร็จใน Human Simulation Simulation สำหรับเช่น AlphaGo ใช้แนวคิดใหม่:

    การเสริมแรงการเรียนรู้เพื่อปรับปรุงเครือข่ายที่ได้รับการฝึกฝนแล้วด้วยข้อมูลใหม่หรือ

    การเรียนรู้ที่ไม่ได้รับการสนับสนุนเช่นจากเครือข่ายฝ่ายตรงข้ามทั่วไปเพื่อรับเครือข่ายที่ดีขึ้นโดยการแข่งขัน

    พลังการประมวลผลที่จำเป็นในการจำลองสมอง

    การจำลองสมองทั้งหมด

    วิธียอดนิยมที่กล่าวถึงการบรรลุการกระทำที่ชาญฉลาดโดยทั่วไปคือการจำลองสมองทั้งหมด แบบจำลองสมองระดับต่ำถูกสร้างขึ้นโดยการสแกนและทำแผนที่สมองชีวภาพโดยละเอียดและคัดลอกสถานะของมันลงในระบบคอมพิวเตอร์หรืออุปกรณ์คำนวณอื่น คอมพิวเตอร์ใช้แบบจำลองสถานการณ์จำลองเพื่อซื่อสัตย์กับต้นฉบับซึ่งจะทำงานในลักษณะเดียวกับสมองเริ่มแรกหรือเพื่อการใช้งานจริงอย่างแยกไม่ออก การจำลองสมองทั้งหมดถูกกล่าวถึงในระบบประสาทและการคำนวณทางประสาทวิทยาในบริบทของการจำลองสมองเพื่อการวิจัยทางการแพทย์ มันถูกกล่าวถึงในการวิจัยปัญญาประดิษฐ์เป็นวิธีการที่แข็งแกร่ง AI เทคโนโลยี Neuroimaging ที่สามารถให้รายละเอียดความเข้าใจที่จำเป็นได้รับการพัฒนาอย่างรวดเร็วและนักอนาคตอย่าง Ray Kurzweil ในหนังสือ The Singularity Is Near คาดการณ์ว่าแผนที่ที่มีคุณภาพเพียงพอจะมีให้ในช่วงเวลาใกล้เคียงกับกำลังการประมวลผลที่ต้องการ

    การประเมินต้น

    สำหรับการจำลองสมองระดับต่ำจำเป็นต้องใช้คอมพิวเตอร์ที่ทรงพลังอย่างยิ่ง สมองของมนุษย์นั้นมีประสาทจำนวนมาก แต่ละ 10 (หนึ่งแสนล้าน) เซลล์ประสาทโดยเฉลี่ย 7,000 การเชื่อมต่อ synaptic กับเซลล์ประสาทอื่น ๆ มันประเมินแล้วว่าสมองของเด็กอายุสามขวบนั้นมีประมาณ 10 ประสาท (1 ล้านล้านล้าน) จำนวนนี้ลดลงตามอายุเสถียรภาพโดยผู้ใหญ่ การประมาณการแตกต่างกันไปสำหรับผู้ใหญ่ตั้งแต่ 10 ถึง 5 × 10 synapses (100 ถึง 500 ล้านล้าน) การประมาณกำลังการประมวลผลของสมองโดยอาศัยโมเดลสวิตช์แบบง่ายสำหรับการทำงานของเซลล์ประสาทนั้นอยู่ที่ประมาณ 10 (100 ล้านล้านล้าน) การอัพเดท synaptic ต่อวินาที (SUPS) ในปี 1997 Kurzweil ได้ดูการประมาณค่าต่าง ๆ ของฮาร์ดแวร์ที่จำเป็นในการทำให้สมองของมนุษย์เท่ากันและใช้การคำนวณ 10 ครั้งต่อวินาที (cps) (สำหรับการเปรียบเทียบหาก การคำนวณ เทียบเท่ากับหนึ่ง การดำเนินการจุดลอยตัว - การวัดที่ใช้ในการจัดอันดับซูเปอร์คอมพิวเตอร์ปัจจุบัน - จากนั้น 10 การคำนวณ จะเท่ากับ 10 petaFLOPS ซึ่งทำได้ในปี 2554) เขาใช้ตัวเลขนี้เพื่อทำนาย ฮาร์ดแวร์ที่จำเป็นจะมีอยู่ในช่วงระหว่างปี 2558 ถึง 2568 หากการเติบโตอย่างทวีคูณของพลังคอมพิวเตอร์ในขณะที่เขียนต่อไป

    การสร้างแบบจำลองเซลล์ประสาทในรายละเอียดเพิ่มเติม

    แบบจำลองเซลล์ประสาทเทียมที่สมมติโดย Kurzweil และใช้ในการใช้งานโครงข่ายประสาทเทียมในปัจจุบันนั้นง่ายเมื่อเทียบกับเซลล์ประสาทชีวภาพ การจำลองสมองน่าจะต้องจับรายละเอียดพฤติกรรมของเซลล์ประสาทของเซลล์ประสาทชีวภาพซึ่งปัจจุบันเข้าใจได้เฉพาะในโครงร่างที่กว้างที่สุดเท่านั้น ค่าโสหุ้ยที่ได้รับการแนะนำโดยการสร้างแบบจำลองเต็มรูปแบบของรายละเอียดทางชีวภาพเคมีและกายภาพของพฤติกรรมประสาท (โดยเฉพาะอย่างยิ่งในระดับโมเลกุล) จะต้องใช้อำนาจการคำนวณหลายคำสั่งขนาดใหญ่กว่าการประเมินของ Kurzweil นอกจากนี้การประเมินไม่ได้คำนึงถึงเซลล์ glial ซึ่งอย่างน้อยก็มีมากเท่ากับเซลล์ประสาทและซึ่งอาจมีจำนวนมากกว่าเซลล์ประสาทได้มากถึง 10: 1 และตอนนี้เป็นที่รู้จักกันว่ามีบทบาทในกระบวนการทางปัญญา

    การวิจัยปัจจุบัน

    มีบางโครงการวิจัยที่กำลังตรวจสอบการจำลองสมองโดยใช้แบบจำลองทางประสาทที่ซับซ้อนกว่าเดิมซึ่งถูกนำไปใช้กับสถาปัตยกรรมการคำนวณแบบดั้งเดิม โครงการระบบปัญญาประดิษฐ์ใช้การจำลองแบบ สมอง แบบเรียลไทม์ (กับ 10 เซลล์ประสาท) ในปี 2548 ใช้เวลา 50 วันในการประมวลผล 27 คลัสเตอร์เพื่อจำลอง 1 วินาทีของแบบจำลอง โครงการ Blue Brain ใช้หนึ่งในสถาปัตยกรรมซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกซึ่งเป็นแพลตฟอร์ม Blue Gene ของ IBM เพื่อสร้างการจำลองแบบเรียลไทม์ของคอลัมน์ neocortical หนูเดี่ยวซึ่งประกอบด้วยเซลล์ประสาทประมาณ 10, 000 และ 10 synapses ในปี 2549 เป้าหมายระยะยาวคือ เพื่อสร้างรายละเอียดการจำลองการทำงานของกระบวนการทางสรีรวิทยาในสมองมนุษย์: มันเป็นไปไม่ได้ที่จะสร้างสมองมนุษย์และเราสามารถทำได้ภายใน 10 ปี Henry Markram ผู้อำนวยการโครงการสมองสีน้ำเงินกล่าวในปี 2009 ที่ TED การประชุมในฟอร์ด มีการโต้เถียงอ้างว่าได้จำลองแมวสมอง อินเทอร์เฟซ Neuro-silicon ได้รับการเสนอเป็นกลยุทธ์การใช้งานทางเลือกที่อาจขยายขนาดได้ดีขึ้น

    Hans Moravecaddressed ข้อโต้แย้งข้างต้น (สมองมีความซับซ้อนมากขึ้น , เซลล์ประสาทจะต้องมีแบบจำลองในรายละเอียดเพิ่มเติม) ในบทความ 1997 ของเขา เมื่อฮาร์ดแวร์คอมพิวเตอร์จะตรงกับสมองมนุษย์? เขาวัดความสามารถของซอฟต์แวร์ที่มีอยู่เพื่อจำลองการทำงานของ เนื้อเยื่อประสาทโดยเฉพาะเรตินา ผลการทดลองของเขาไม่ได้ขึ้นอยู่กับจำนวนของเซลล์ glial และไม่ว่าเซลล์ประมวลผลชนิดใดจะทำงานที่ไหน

    ความซับซ้อนที่แท้จริงของการสร้างแบบจำลองเซลล์ประสาทชีวภาพได้รับการสำรวจในโครงการ OpenWorm ซึ่งมีวัตถุประสงค์เพื่อจำลองแบบของเวิร์มที่มีเซลล์ประสาทเพียง 302 เซลล์ในโครงข่ายประสาทเทียม (ในจำนวนทั้งหมด 1,000 เซลล์) โครงข่ายประสาทของสัตว์นั้นได้รับการบันทึกไว้อย่างดีก่อนเริ่มโครงการ อย่างไรก็ตามถึงแม้ว่างานจะดูเรียบง่ายในตอนเริ่มต้น แต่มันก็ขึ้นอยู่กับเครือข่ายประสาททั่วไปที่ใช้งานไม่ได้ ขณะนี้ความพยายามมุ่งเน้นไปที่การจำลองเซลล์ประสาทชีวภาพอย่างแม่นยำ (ส่วนหนึ่งในระดับโมเลกุล) แต่ผลลัพธ์ยังไม่สามารถเรียกได้ว่าประสบความสำเร็จทั้งหมด แม้ว่าจำนวนของปัญหาที่ต้องแก้ไขในแบบจำลองระดับสมองของมนุษย์นั้นไม่ได้เป็นสัดส่วนกับจำนวนของเซลล์ประสาท แต่ปริมาณของงานตามเส้นทางนี้ก็ชัดเจน

    คำติชมของวิธีการที่ใช้การจำลอง

    การวิพากษ์วิจารณ์พื้นฐานของวิธีการจำลองสมองเกิดขึ้นจากความรู้ความเข้าใจเป็นตัวเป็นตนที่ศูนย์รวมของมนุษย์ถูกนำมาเป็นสิ่งสำคัญของความฉลาดของมนุษย์ นักวิจัยหลายคนเชื่อว่าศูนย์รวมจำเป็นต่อความหมายพื้นฐานหากมุมมองนี้ถูกต้องโมเดลสมองที่ทำงานได้อย่างสมบูรณ์ใด ๆ จะต้องรวมมากกว่าเซลล์ประสาท (เช่นร่างกายหุ่นยนต์) Goertzel เสนอศูนย์รวมเสมือน (เช่น Second Life) แต่ก็ยังไม่ทราบว่าสิ่งนี้จะเพียงพอหรือไม่

    คอมพิวเตอร์เดสก์ท็อปที่ใช้ไมโครโพรเซสเซอร์ที่มีความสามารถมากกว่า 10cps (หน่วย การคำนวณต่อวินาที ที่ไม่เป็นมาตรฐานของ Kurzweil ดูด้านบน) มีวางจำหน่ายตั้งแต่ปี 2548 ตามการประมาณการพลังงานสมองที่ใช้โดย Kurzweil (และ Moravec) รองรับการจำลองสมองผึ้ง แต่ถึงแม้จะมีความสนใจบ้างก็ไม่มีการจำลองเช่นนี้อยู่ มีเหตุผลอย่างน้อยสามประการสำหรับสิ่งนี้:

    โมเดลของเซลล์ประสาทดูเหมือนจะถูกทำให้กว้างเกินไป (ดูหัวข้อถัดไป)

    มีความเข้าใจไม่เพียงพอเกี่ยวกับกระบวนการทางความคิดที่สูงขึ้นในการสร้างสิ่งที่กิจกรรมประสาทของสมองอย่างแม่นยำโดยใช้เทคนิคต่าง ๆ เช่นการถ่ายภาพด้วยคลื่นสนามแม่เหล็ก

    แม้ว่าความเข้าใจด้านความรู้ความเข้าใจของเราจะเพิ่มขึ้นอย่างเพียงพอโปรแกรมการจำลองสถานการณ์ในช่วงต้นมีแนวโน้มที่จะไม่มีประสิทธิภาพมากและดังนั้นจึงจำเป็นต้องใช้ฮาร์ดแวร์มากขึ้น

    สมองของสิ่งมีชีวิตในขณะที่สำคัญอาจไม่เป็นขอบเขตที่เหมาะสมสำหรับแบบจำลองความรู้ความเข้าใจ ในการจำลองสมองผึ้งอาจจำเป็นต้องจำลองร่างกายและสภาพแวดล้อม วิทยานิพนธ์ของ Extended Mind ได้สร้างแนวคิดเชิงปรัชญาอย่างเป็นทางการและการวิจัยใน cephalopods ได้แสดงให้เห็นตัวอย่างที่ชัดเจนของระบบการกระจายอำนาจ

    นอกจากนี้ขนาดของสมองมนุษย์ยังไม่ถูก จำกัด ในขณะนี้ การประมาณหนึ่งทำให้สมองมนุษย์ประมาณ 100 พันล้านเซลล์ประสาทและประสาทล้านล้าน ประมาณการอีกคือ 86 พันล้านเซลล์ประสาทซึ่ง 16.3 พันล้านอยู่ในเยื่อหุ้มสมองและ 69 พันล้านในสมอง การซิงค์เซลล์ของ Glial ยังไม่มีการกำหนด แต่เป็นที่รู้กันว่ามีอยู่มากมาย

    การวิจัยจิตสำนึกประดิษฐ์

    ถึงแม้ว่าบทบาทของการมีสติใน AI / AGI ที่เข้มแข็งนั้นเป็นที่ถกเถียงกันนักวิจัยของ AGI จำนวนมากมองว่าการวิจัยที่สำรวจความเป็นไปได้ในการนำสติไปใช้เป็นสิ่งสำคัญ อิกอร์อเล็กซานเดอร์อ้างว่าหลักการของการสร้างเครื่องจักรที่ใส่ใจนั้นมีอยู่แล้ว แต่มันใช้เวลาสี่สิบปีในการฝึกฝนเครื่องจักรเพื่อให้เข้าใจภาษา

    ความสัมพันธ์กับ AI ที่แข็งแกร่ง

    ในปี 1980 นักปรัชญาจอห์นเซิลร์ประกาศเกียรติคุณคำว่า strong AI ซึ่งเป็นส่วนหนึ่งของการโต้แย้งในห้องจีนของเขา เขาต้องการแยกแยะความแตกต่างระหว่างสมมติฐานที่ต่างกันสองข้อเกี่ยวกับปัญญาประดิษฐ์:

    ระบบปัญญาประดิษฐ์สามารถคิดและมีจิตใจได้ (คำว่า ใจ มีความหมายเฉพาะสำหรับนักปรัชญาตามที่ใช้ใน ปัญหาร่างกายจิตใจ หรือ "ปรัชญาแห่งจิตใจ)

    ระบบปัญญาประดิษฐ์สามารถ (เท่านั้น) ทำหน้าที่เหมือนที่คิดและมีจิตใจ

    อันแรกเรียกว่า สมมติฐานของ AI ที่แข็งแกร่ง และข้อที่สองคือ สมมติฐานของ AI ที่อ่อนแอ เพราะข้อแรกบ่งบอกถึงความแข็งแกร่ง: สันนิษฐานว่ามีสิ่งพิเศษเกิดขึ้นกับเครื่องจักรที่เกินกว่าความสามารถทั้งหมดที่เราสามารถทดสอบได้ Searle เรียกว่า strong AI hypothesis เป็น strong AI การใช้งานนี้เป็นเรื่องธรรมดาในการวิจัย AI ทางวิชาการและตำรา

    สมมติฐาน AI ที่อ่อนแอนั้นเทียบเท่ากับสมมติฐานที่ว่าปัญญาประดิษฐ์ทั่วไปนั้นเป็นไปได้ จากข้อมูลของรัสเซลและนอวิค นักวิจัยเอไอส่วนใหญ่ใช้สมมติฐานเอไออ่อน ๆ ที่ได้รับและไม่สนใจสมมติฐานของเอไอที่แข็งแกร่ง

    ตรงกันข้ามกับเซิลร์เคิร์ซไวล์ใช้คำว่า strong AI เพื่ออธิบายระบบปัญญาประดิษฐ์ใด ๆ ที่ทำหน้าที่เหมือนมีจิตใจโดยไม่คำนึงว่านักปรัชญาจะสามารถตัดสินได้ว่ามันมีจิตใจจริงหรือไม่

    คำอธิบายที่เป็นไปได้สำหรับความคืบหน้าช้าของการวิจัย AI

    นับตั้งแต่เปิดตัวงานวิจัย AI ในปี 1956 การเติบโตของสาขานี้เพิ่มขึ้นเรื่อย ๆ ตามกาลเวลาและได้หยุดยั้งเป้าหมายของการสร้างเครื่องจักรที่มีทักษะด้วยการกระทำอันชาญฉลาดในระดับมนุษย์ คำอธิบายที่เป็นไปได้สำหรับความล่าช้านี้คือคอมพิวเตอร์ไม่มีขอบเขตเพียงพอของหน่วยความจำหรือกำลังประมวลผล นอกจากนี้ระดับของความซับซ้อนที่เชื่อมโยงกับกระบวนการของการวิจัย AI อาจจำกัดความคืบหน้าของการวิจัย AI

    ในขณะที่นักวิจัย AI ส่วนใหญ่เชื่อว่า AI ที่แข็งแกร่งสามารถเกิดขึ้นได้ในอนาคต แต่ก็มีบางคนเช่น Hubert Dreyfus และ Roger Penrose ที่ปฏิเสธความเป็นไปได้ในการบรรลุ AI ที่แข็งแกร่ง John McCarthy เป็นหนึ่งในนักวิทยาศาสตร์คอมพิวเตอร์หลายคนที่เชื่อว่า AI ระดับมนุษย์จะสำเร็จได้ แต่ไม่สามารถคาดการณ์วันที่ได้อย่างแม่นยำ

    ข้อ จำกัด ด้านแนวคิดเป็นอีกเหตุผลหนึ่งที่เป็นไปได้สำหรับความช้าในการวิจัย AI นักวิจัย AI อาจจำเป็นต้องปรับเปลี่ยนกรอบแนวคิดของวินัยของพวกเขาเพื่อที่จะให้ฐานที่แข็งแกร่งและมีส่วนร่วมในการบรรลุ AI ที่แข็งแกร่ง ดังที่วิลเลียมคล็อกซินเขียนในปี 2546: กรอบการทำงานเริ่มต้นจากการสังเกตของ Weizenbaum ว่าความฉลาดปรากฏตัวเฉพาะเมื่อเทียบกับบริบททางสังคมและวัฒนธรรมที่เฉพาะเจาะจง

    นอกจากนี้นักวิจัย AI ก็สามารถสร้างคอมพิวเตอร์ที่สามารถทำงานที่ซับซ้อนสำหรับคนที่จะทำ แต่ในทางกลับกันพวกเขาได้พยายามพัฒนาคอมพิวเตอร์ที่สามารถทำงานที่ง่ายสำหรับมนุษย์ในการทำ (บุคคลที่ผิดธรรมดาของ Moravec) ปัญหาที่อธิบายโดย David Gelernter คือบางคนคิดว่าการคิดและการใช้เหตุผลนั้นเทียบเท่ากัน อย่างไรก็ตามความคิดว่าความคิดและผู้สร้างความคิดเหล่านั้นแยกจากกันเป็นรายบุคคลหรือไม่นั้นมีนักวิจัย AI ที่สนใจ

    ปัญหาที่พบในการวิจัย AI ในช่วงทศวรรษที่ผ่านมาได้ขัดขวางความก้าวหน้าของ AI การคาดการณ์ที่ล้มเหลวซึ่งนักวิจัย AI ได้ให้คำมั่นสัญญาและการขาดความเข้าใจอย่างสมบูรณ์เกี่ยวกับพฤติกรรมของมนุษย์ได้ช่วยลดความคิดหลักของ AI ระดับมนุษย์แม้ว่าความก้าวหน้าของการวิจัย AI จะนำมาซึ่งการพัฒนาและความผิดหวัง เกี่ยวกับการบรรลุเป้าหมายของ AI ในศตวรรษที่ 21

    มีการเสนอเหตุผลที่เป็นไปได้อื่น ๆ สำหรับการวิจัยระยะยาวในความก้าวหน้าของ AI ที่แข็งแกร่ง ความซับซ้อนของปัญหาทางวิทยาศาสตร์และความต้องการที่จะเข้าใจสมองของมนุษย์ผ่านทางจิตวิทยาและสรีรวิทยาได้ จำกัด นักวิจัยจำนวนมากจากการเลียนแบบการทำงานของสมองมนุษย์ลงในฮาร์ดแวร์คอมพิวเตอร์นักวิจัยหลายคนมักจะประมาทข้อสงสัยใด ๆ ที่เกี่ยวข้องกับการทำนายอนาคต แต่โดยไม่คำนึงถึงปัญหาเหล่านั้นอย่างจริงจังผู้คนสามารถมองข้ามวิธีแก้ไขปัญหาที่เป็นปัญหาได้

    Clocksin กล่าวว่าข้อ จำกัด ทางความคิดที่อาจขัดขวางความก้าวหน้าของการวิจัย AI คือผู้คนอาจใช้เทคนิคที่ไม่ถูกต้องสำหรับโปรแกรมคอมพิวเตอร์และการใช้งานอุปกรณ์ เมื่อนักวิจัย AI เริ่มตั้งเป้าหมายเป้าหมายของปัญญาประดิษฐ์ความสนใจหลักคือการใช้เหตุผลของมนุษย์ผู้วิจัยหวังที่จะสร้างแบบจำลองการคำนวณความรู้ของมนุษย์ผ่านการใช้เหตุผลและเพื่อหาวิธีออกแบบคอมพิวเตอร์ด้วยงานด้านความรู้เฉพาะ

    การปฏิบัติของนามธรรมซึ่งผู้คนมักจะนิยามใหม่เมื่อทำงานกับบริบทเฉพาะในการวิจัยให้นักวิจัยมีสมาธิกับแนวคิดเพียงไม่กี่ การใช้นามธรรมอย่างมีประสิทธิผลมากที่สุดในการวิจัย AI มาจากการวางแผนและการแก้ปัญหาแม้ว่าจุดมุ่งหมายคือการเพิ่มความเร็วในการคำนวณ แต่บทบาทของการนามธรรมได้ตั้งคำถามเกี่ยวกับการมีส่วนร่วมของผู้ประกอบการที่เป็นนามธรรม

    เหตุผลที่เป็นไปได้สำหรับความเชื่องช้าใน AI เกี่ยวข้องกับการยอมรับโดยนักวิจัย AI หลายคนว่าฮิวริสติกเป็นส่วนที่เกี่ยวข้องกับการละเมิดที่สำคัญระหว่างประสิทธิภาพของคอมพิวเตอร์และประสิทธิภาพของมนุษย์ฟังก์ชันที่เฉพาะเจาะจงที่โปรแกรมไว้กับคอมพิวเตอร์ ที่อนุญาตให้ตรงกับความฉลาดของมนุษย์ คำอธิบายเหล่านี้ไม่ได้รับประกันว่าจะเป็นสาเหตุพื้นฐานสำหรับความล่าช้าในการบรรลุ AI ที่แข็งแกร่ง แต่พวกเขาได้รับการยอมรับอย่างกว้างขวางจากนักวิจัยจำนวนมาก

    มีนักวิจัย AI หลายคนที่ถกเถียงเรื่องความคิดว่าควรสร้างเครื่องจักรด้วยอารมณ์หรือไม่ไม่มีอารมณ์ในแบบจำลองทั่วไปของ AI และนักวิจัยบางคนบอกว่าการเขียนโปรแกรมอารมณ์ลงในเครื่องช่วยให้พวกเขามีจิตใจของตัวเอง อารมณ์นั้นสรุปประสบการณ์ของมนุษย์เพราะมันช่วยให้พวกเขาจดจำประสบการณ์เหล่านั้นได้ David Gelernter เขียนว่า ไม่มีคอมพิวเตอร์ใดที่จะมีความคิดสร้างสรรค์ถ้ามันสามารถจำลองความแตกต่างของอารมณ์ความรู้สึกของมนุษย์ได้ ความกังวลเกี่ยวกับอารมณ์ได้วางปัญหาให้กับนักวิจัยของ AI และเชื่อมโยงกับแนวคิดของ AI ที่แข็งแกร่ง

    สติ

    มีแง่มุมอื่น ๆ ของจิตใจมนุษย์นอกเหนือจากความฉลาดที่เกี่ยวข้องกับแนวคิดของ AI ที่แข็งแกร่งซึ่งมีบทบาทสำคัญในนิยายวิทยาศาสตร์และจริยธรรมของปัญญาประดิษฐ์:

    สติ: จะมีประสบการณ์ส่วนตัวและความคิด

    การรับรู้ตนเอง: การตระหนักถึงตนเองเป็นบุคคลที่แยกจากกันโดยเฉพาะอย่างยิ่งที่จะตระหนักถึงความคิดของตัวเอง

    ความรู้สึก: ความสามารถในการ รับรู้ การรับรู้หรืออารมณ์ความรู้สึก

    sapience: ความสามารถในการภูมิปัญญา

    ลักษณะเหล่านี้มีมิติทางศีลธรรมเนื่องจากเครื่องจักรที่มี AI ที่แข็งแกร่งในรูปแบบนี้อาจมีสิทธิ์ตามกฎหมายซึ่งคล้ายคลึงกับสิทธิของสัตว์ที่ไม่ใช่มนุษย์ นอกจากนี้บิลจอยยังอ้างว่าเครื่องจักรที่มีคุณสมบัติเหล่านี้อาจเป็นภัยคุกคามต่อชีวิตมนุษย์หรือศักดิ์ศรี มันยังคงที่จะแสดงให้เห็นว่าลักษณะใด ๆ เหล่านี้มีความจำเป็นสำหรับ AI ที่แข็งแกร่ง บทบาทของการมีสติไม่ชัดเจนและในปัจจุบันยังไม่มีการทดสอบที่เห็นด้วยสำหรับการปรากฏตัวของมัน หากเครื่องจักรถูกสร้างขึ้นด้วยอุปกรณ์ที่จำลองความสัมพันธ์ของระบบประสาทของจิตสำนึกมันจะมีการรับรู้ตนเองโดยอัตโนมัติหรือไม่? อาจเป็นไปได้ว่าคุณสมบัติเหล่านี้บางอย่างเช่นความรู้สึกเกิดขึ้นโดยธรรมชาติจากเครื่องจักรที่ฉลาดเต็มที่หรือกลายเป็นคุณสมบัติธรรมชาติที่กำหนดคุณสมบัติของเครื่องจักรเมื่อพวกเขาเริ่มทำงานในลักษณะที่ฉลาดอย่างเห็นได้ชัด ตัวอย่างเช่นการกระทำที่ชาญฉลาดอาจเพียงพอสำหรับความรู้สึกมากกว่าทางอื่น ๆ

    ในนิยายวิทยาศาสตร์ AGI มีความสัมพันธ์กับลักษณะต่าง ๆ เช่นสติความรู้สึกความสามารถและการรับรู้ตนเองในสิ่งมีชีวิต อย่างไรก็ตามตามปราชญ์จอห์นเซิลร์มันเป็นคำถามที่เปิดกว้างว่าสติปัญญาทั่วไปนั้นเพียงพอต่อการมีสติ Strong AI (ตามที่นิยามไว้ข้างต้นโดย Ray Kurzweil) ไม่ควรสับสนกับ strong AI hypothesis ของ Searle "สมมติฐาน AI ที่แข็งแกร่งคือการอ้างว่าคอมพิวเตอร์ที่ทำงานอย่างชาญฉลาดในฐานะบุคคลต้องมีความคิดและสติ AGI หมายถึงจำนวนหน่วยสืบราชการลับที่เครื่องแสดงโดยมีหรือไม่มีจิตใจเท่านั้น

    การโต้เถียงและอันตราย

    ความเป็นไปได้

    ความคิดเห็นนั้นแตกต่างกันไปไม่ว่าจะเป็นข่าวกรองทั่วไปทั่วไปหรือไม่ก็ตาม หนึ่งในสุดโต่งผู้บุกเบิก AI Herbert A. Simonwrote ในปี 1965: เครื่องจักรจะมีความสามารถภายในยี่สิบปีของการทำงานใด ๆ ที่มนุษย์สามารถทำได้ อย่างไรก็ตามการทำนายนี้ล้มเหลวในการเป็นจริง พอลอัลเลนผู้ร่วมก่อตั้งไมโครซอฟท์เชื่อว่าข่าวกรองนี้ไม่น่าเป็นไปได้ในศตวรรษที่ 21 เพราะมันจะต้องมี นวัตกรรมที่ไม่สามารถคาดเดาได้และไม่สามารถคาดเดาได้ และ ความเข้าใจในเชิงลึกเกี่ยวกับความรู้ความเข้าใจทางวิทยาศาสตร์ Alan Winfield นักเขียนหุ่นยนต์ใน The Guardian อ้างว่าช่องว่างระหว่างคอมพิวเตอร์สมัยใหม่กับปัญญาประดิษฐ์ระดับมนุษย์นั้นกว้างพอ ๆ กับช่องว่างระหว่างการบินอวกาศในปัจจุบันและการปฏิบัติจริงในมุมมองที่รวดเร็วกว่าแสง spaceflight.AI ผู้เชี่ยวชาญเกี่ยวกับความเป็นไปได้ของ AGI ขี้ผึ้งและ จางหายไปและอาจได้เห็นการฟื้นตัวในปี 2010 การสำรวจความคิดเห็นทั้งสี่ดำเนินการในปี 2555 และ 2556 ชี้ให้เห็นว่าการคาดคะเนค่ามัธยฐานในหมู่ผู้เชี่ยวชาญเมื่อพวกเขามั่นใจ 50% AGI จะมาถึงคือ 2040 ถึง 2050 ขึ้นอยู่กับการสำรวจความคิดเห็นโดยมีค่าเฉลี่ยอยู่ที่ 2081 ผู้เชี่ยวชาญตอบด้วย ไม่เคย เมื่อถามคำถามเดียวกัน แต่มีความมั่นใจ 90% แทนการพิจารณาความก้าวหน้า AGI ปัจจุบันสามารถดูได้จากการทดสอบด้านล่างเพื่อยืนยันการทดสอบ AGI ระดับมนุษย์และ IQ-AGI

    ภัยคุกคามที่อาจเกิดขึ้นต่อการดำรงอยู่ของมนุษย์

    การสร้างปัญญาประดิษฐ์ทั่วไปอาจมีผลสะท้อนที่ยอดเยี่ยมและซับซ้อนจนไม่สามารถคาดการณ์ได้ว่าอะไรจะเกิดขึ้นในภายหลัง ดังนั้นเหตุการณ์ในอนาคตของการบรรลุ AI ที่แข็งแกร่งจึงเรียกว่าภาวะเอกฐานทางเทคโนโลยีเพราะในทางทฤษฎีแล้วเราไม่สามารถมองเห็นสิ่งที่ผ่านมาได้ แต่สิ่งนี้ไม่ได้หยุดนักปรัชญาและนักวิจัยจากการคาดเดาสิ่งที่คอมพิวเตอร์สมาร์ทหรือหุ่นยนต์ในอนาคตอาจทำรวมถึงการสร้างยูโทเปียโดยการเป็นเพื่อนของเราหรือครอบงำเราในการครอบครอง AI ศักยภาพหลังถูกรบกวนโดยเฉพาะอย่างยิ่งเนื่องจากมีความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ

    เครื่องลอกเลียนแบบด้วยตนเอง

    คอมพิวเตอร์หรือหุ่นยนต์อัจฉริยะจะสามารถออกแบบและผลิตรุ่นปรับปรุงตนเองได้การเพิ่มจำนวนประชากรของหุ่นยนต์อัจฉริยะอาจทำให้มนุษย์ด้อยโอกาสในตลาดงานธุรกิจวิทยาศาสตร์วิทยาศาสตร์การเมือง (ตามสิทธิของหุ่นยนต์) และเทคโนโลยี ทางสังคมวิทยา (โดยทำหน้าที่เป็นหนึ่ง) และทางทหาร แม้กระทั่งทุกวันนี้งานจำนวนมากได้ถูกดำเนินการโดยเครื่องหลอกอัจฉริยะที่ขับเคลื่อนโดย Weak AI ตัวอย่างเช่นหุ่นยนต์สำหรับบ้านการดูแลสุขภาพโรงแรมและร้านอาหารต่างก็มีชีวิตอัตโนมัติหลายส่วน: บอทเสมือนทำให้การบริการลูกค้ากลายเป็นตนเอง บริการแอพพลิเคชั่น AI ข้อมูลขนาดใหญ่ถูกใช้เพื่อแทนที่ผู้จัดการพอร์ตโฟลิโอและหุ่นยนต์โซเชียลเช่น Pepper ถูกใช้เพื่อแทนที่มนุษย์เพื่อการบริการลูกค้า

    ความฉลาดเฉียบแหลมที่เกิดขึ้น

    หากการวิจัยเกี่ยวกับ AI ที่แข็งแกร่งผลิตซอฟต์แวร์อัจฉริยะอย่างเพียงพอมันจะสามารถสร้างโปรแกรมใหม่และปรับปรุงตัวเอง - คุณสมบัติที่เรียกว่า การพัฒนาตนเองแบบเรียกซ้ำ มันก็จะดีขึ้นในการปรับปรุงตัวเองและอาจจะดำเนินการต่อไปในวงจรที่เพิ่มขึ้นอย่างรวดเร็วนำไปสู่การระเบิดของข่าวกรองและการเกิดขึ้นของความฉลาดหลักแหลมสติปัญญาดังกล่าวจะไม่ได้มีข้อ จำกัด ของสติปัญญาของมนุษย์ คิดค้นหรือค้นพบเกือบทุกอย่าง

    ซอฟต์แวร์ Hyper-wise อาจไม่จำเป็นต้องตัดสินใจสนับสนุนมนุษย์อย่างต่อเนื่องและอาจหยุดยาก หัวข้อนี้เพิ่งเริ่มมีการพูดคุยกันในสิ่งพิมพ์ทางวิชาการว่าเป็นแหล่งที่มาที่แท้จริงของความเสี่ยงต่ออารยธรรมมนุษย์และดาวเคราะห์โลก

    ข้อเสนอหนึ่งที่จะจัดการกับเรื่องนี้คือเพื่อให้แน่ใจว่า AI ที่ชาญฉลาดโดยทั่วไปคนแรกเป็น AI ที่เป็นมิตรจากนั้นจะพยายามตรวจสอบให้แน่ใจว่าภายหลังการพัฒนา AIs นั้นเป็นสิ่งที่ดีสำหรับเรา แต่ AI ที่เป็นมิตรนั้นยากที่จะสร้างขึ้นกว่า AGI ธรรมดาและดังนั้นจึงมีความเป็นไปได้ว่าในการแข่งขันระหว่างคนทั้งสองนั้น นอกจากนี้ยังไม่มีการรับประกันว่า AI ที่เป็นมิตรจะยังคงเป็นมิตรหรือว่าลูกหลานของมันก็จะดีเช่นกัน

    ประวัติความเป็นมาของปัญญาประดิษฐ์

    ในยุค 40 และยุค 50 นักวิทยาศาสตร์จำนวนหนึ่งจากหลากหลายสาขา (คณิตศาสตร์จิตวิทยาวิศวกรรมเศรษฐศาสตร์และรัฐศาสตร์) เริ่มถกกันถึงความเป็นไปได้ในการสร้างสมองเทียม สาขาการวิจัยปัญญาประดิษฐ์ก่อตั้งขึ้นในฐานะนักวิชาการในปี 2499

    ไซเบอร์เนติกส์และเครือข่ายประสาทก่อน

    การวิจัยที่เร็วที่สุดในเครื่องคิดได้รับแรงบันดาลใจจากการรวมกันของความคิดที่แพร่หลายในช่วงปลายทศวรรษ 1930, 1940 และต้นทศวรรษ 1950 การวิจัยล่าสุดในระบบประสาทได้แสดงให้เห็นว่าสมองเป็นเครือข่ายไฟฟ้าของเซลล์ประสาทที่ยิงด้วยพัลส์ทั้งหมดหรือไม่มีอะไรเลย ไซเบอร์เนติกส์ของ Norbert Wiener อธิบายการควบคุมและความมั่นคงในเครือข่ายไฟฟ้า ทฤษฎีข้อมูลของ Claude Shannon อธิบายสัญญาณดิจิตอล (เช่นสัญญาณทั้งหมดหรือไม่มีอะไร) ทฤษฎีการคำนวณของอลันทัวริงแสดงให้เห็นว่ารูปแบบการคำนวณใด ๆ สามารถอธิบายแบบดิจิทัลได้ ความสัมพันธ์ที่ใกล้ชิดระหว่างความคิดเหล่านี้ชี้ให้เห็นว่าอาจเป็นไปได้ที่จะสร้างสมองอิเล็กทรอนิกส์

    ตัวอย่างของการทำงานในหลอดเลือดดำนี้รวมถึงหุ่นยนต์เช่นเต่าของ W. Gray Walter และ Johns Hopkins Beast เครื่องเหล่านี้ไม่ได้ใช้คอมพิวเตอร์อิเล็กทรอนิกส์ดิจิตอลหรือการใช้เหตุผลเชิงสัญลักษณ์ พวกมันถูกควบคุมอย่างสมบูรณ์โดยวงจรแอนะล็อก

    Walter Pitts และ Warren McCulloch วิเคราะห์เครือข่ายของเซลล์ประสาทเทียมในอุดมคติแสดงให้เห็นว่าพวกเขาอาจทำหน้าที่ทางตรรกะอย่างง่ายได้อย่างไร พวกเขาเป็นคนแรกที่อธิบายสิ่งที่นักวิจัยในภายหลังจะเรียกว่าเครือข่ายประสาท หนึ่งในนักเรียนที่ได้รับแรงบันดาลใจจาก Pitts and McCulloch คือ Marvin Minsky ที่อายุน้อยและเป็นนักศึกษาปริญญาโทอายุ 24 ปี ในปี 1951 (กับ Dean Edmonds) เขาได้สร้างเครือข่ายประสาทเทียมเครื่องแรก SNARC.Minsky จะกลายเป็นหนึ่งในผู้นำที่สำคัญที่สุดและนักประดิษฐ์ใน AI ในอีก 50 ปีข้างหน้า

    การทดสอบของทัวริง

    ในปี 1950 Alan Turing ตีพิมพ์บทความที่เขาคาดการณ์เกี่ยวกับความเป็นไปได้ในการสร้างเครื่องจักรที่คิดว่าเขาคิดว่า ความคิด นั้นยากที่จะกำหนดและคิดค้นการทดสอบทัวริงที่มีชื่อเสียงของเขา หากเครื่องสามารถทำการสนทนา (ผ่านเครื่องโทรพิมพ์) ที่แยกไม่ออกจากการสนทนากับมนุษย์แล้วมันก็สมเหตุสมผลที่จะบอกว่าเครื่องนั้นเป็น ความคิด ปัญหาที่ทำให้เข้าใจง่ายฉบับนี้ได้รับอนุญาตให้ทัวริงยืนยันอย่างมั่นใจว่า เครื่องคิด อย่างน้อยก็มีเหตุผลและกระดาษตอบคำถามคัดค้านทั้งหมดที่พบบ่อยที่สุดในข้อเสนอ การทดสอบของทัวริงเป็นข้อเสนอที่จริงจังครั้งแรกในปรัชญาของปัญญาประดิษฐ์

    เกม AI

    ในปีพ. ศ. 2494 ใช้เครื่องจักร Ferranti Mark 1 ของมหาวิทยาลัยแมนเชสเตอร์ Christopher Strachey เขียนโปรแกรมหมากฮอสและ Dietrich Prinz เขียนโปรแกรมหนึ่งสำหรับหมากรุก โปรแกรมตรวจสอบของ Arthur Samuel พัฒนาขึ้นในช่วงกลางยุค 50 และต้นทศวรรษ 60 ในที่สุดก็ได้รับความสามารถเพียงพอที่จะท้าทายมือสมัครเล่นที่น่านับถือ เกม AI จะยังคงใช้เป็นเครื่องวัดความคืบหน้าใน AI ตลอดประวัติศาสตร์

    การใช้เหตุผลเชิงสัญลักษณ์และนักทฤษฎีลอจิก

    เมื่อเข้าถึงคอมพิวเตอร์ดิจิทัลที่เป็นไปได้ในช่วงกลางยุค 50 นักวิทยาศาสตร์สองสามคนจำได้โดยสัญชาตญาณว่าเครื่องจักรที่สามารถจัดการตัวเลขสามารถจัดการกับสัญลักษณ์และการจัดการสัญลักษณ์อาจเป็นสาระสำคัญของความคิดของมนุษย์ นี่เป็นวิธีการใหม่ในการสร้างเครื่องคิด

    ในปี 1955 อัลเลนนิวเวลล์และ (อนาคตผู้ได้รับรางวัลโนเบล) เฮอร์เบิร์ตเอ. ไซมอนสร้าง นักทฤษฎีลอจิก (ด้วยความช่วยเหลือจากเจซีชอว์) ในที่สุดโปรแกรมจะพิสูจน์ทฤษฎีบท 52 เรื่องแรก 52 เรื่องใน Principia Mathematica ของรัสเซลและไวท์เฮดและค้นหาหลักฐานใหม่และสง่างามกว่าสำหรับบางคนไซมอนกล่าวว่าพวกเขา แก้ปัญหาจิตใจ / ร่างกายที่น่านับถืออธิบายว่าระบบประกอบด้วยเรื่องได้อย่างไร มีคุณสมบัติของจิตใจ (นี่เป็นคำสั่งแรก ๆ ของตำแหน่งปรัชญาจอห์นเซิลร์ในภายหลังจะเรียกว่า AI ที่แข็งแกร่ง : เครื่องจักรสามารถมีจิตใจเช่นเดียวกับร่างกายมนุษย์ทำ)

    Dartmouth Conference 1956: การกำเนิดของ AI

    การประชุม Dartmouth ในปี 1956 จัดโดย Marvin Minsky, John McCarthy และนักวิทยาศาสตร์อาวุโสสองคน ได้แก่ Claude Shannon และ Nathan Rochester ของ IBM ข้อเสนอสำหรับการประชุมรวมถึงการยืนยันนี้: ทุกแง่มุมของการเรียนรู้หรือคุณลักษณะอื่น ๆ ของหน่วยสืบราชการลับ ว่าเครื่องจักรสามารถจำลองได้ ผู้เข้าร่วมประกอบด้วยเรย์โซโลมอนอฟโอลิเวอร์เซลริดจ์ Trenchard More อาร์เธอร์ซามูเอลอัลเลนนิวเวลล์และเฮอร์เบิร์ตเอ. ไซมอนทุกคนจะสร้างโปรแกรมสำคัญในช่วงทศวรรษแรกของการวิจัย AI การประชุม Newell และ Simon เปิดตัว Logic Theorist และ McCarthy ชักชวนให้ผู้เข้าร่วมรับ ปัญญาประดิษฐ์ เป็นชื่อของสนามการประชุม Dartmouth ในปี 1956 เป็นช่วงเวลาที่ AI ได้รับชื่อภารกิจความสำเร็จครั้งแรกและ ผู้เล่นรายใหญ่และได้รับการพิจารณาอย่างกว้างขวางว่ากำเนิดของ AI คำว่า ปัญญาประดิษฐ์ ได้รับเลือกจาก McCarthy เพื่อหลีกเลี่ยงการเชื่อมโยงกับไซเบอร์เนติกส์และการเชื่อมต่อกับผู้มีอิทธิพลทางไซเบอร์เน็ตเวิร์คนิสต์ Norbert Wiener

    ปีทอง 2499-2517

    พวกเขาหลังจากการประชุมดาร์ทเมาท์เป็นยุคของการค้นพบการวิ่งข้ามพื้นที่ใหม่ โปรแกรมที่ได้รับการพัฒนาในช่วงเวลานี้สำหรับคนส่วนใหญ่เพียงแค่ น่าพิศวง: คอมพิวเตอร์กำลังแก้ปัญหาคำพีชคณิตพิสูจน์ทฤษฎีบทในเรขาคณิตและเรียนรู้ที่จะพูดภาษาอังกฤษ ในเวลาเพียงไม่กี่คนที่เชื่อว่าพฤติกรรมที่ ฉลาด ของเครื่องจักรเป็นไปได้ทั้งหมดผู้วิจัยแสดงให้เห็นถึงการมองโลกในแง่ดีในภาคเอกชนและในการพิมพ์คาดการณ์ว่าเครื่องจักรอัจฉริยะจะถูกสร้างขึ้นในเวลาน้อยกว่า 20 ปี หน่วยงานภาครัฐเช่น DARPA เทเงินลงในช่องใหม่

    การทำงาน

    มีโปรแกรมที่ประสบความสำเร็จมากมายและเส้นทางใหม่ในช่วงปลายยุค 50 และ 1960 ผู้ที่มีอิทธิพลมากที่สุดคือ:

    ให้เหตุผลว่าเป็นการค้นหา

    โปรแกรม AI ยุคต้นจำนวนมากใช้อัลกอริธึมพื้นฐานแบบเดียวกันเพื่อให้บรรลุเป้าหมาย (เช่นการชนะเกมหรือพิสูจน์ทฤษฎีบท) พวกเขาดำเนินการทีละขั้นไปสู่มัน (โดยการย้ายหรือการหัก) ราวกับว่าค้นหาผ่านเขาวงกต พวกเขามาถึงจุดจบ กระบวนทัศน์นี้ถูกเรียกว่า การใช้เหตุผลในการค้นหา

    สำหรับปัญหาหลายอย่างจำนวนของเส้นทางที่เป็นไปได้ผ่านทาง เขาวงกต นั้นเป็นเรื่องทางดาราศาสตร์ (สถานการณ์ที่เรียกว่า การระเบิดแบบ combinatorial) นักวิจัยจะลดพื้นที่การค้นหาโดยใช้การวิเคราะห์พฤติกรรมหรือ กฎของนิ้วหัวแม่มือ "ที่ จะกำจัดเส้นทางเหล่านั้นที่ไม่น่าจะนำไปสู่การแก้ปัญหา

    Newell และ Simon พยายามจับอัลกอริธึมเวอร์ชั่นทั่วไปในโปรแกรมที่เรียกว่า General Problem Solver โปรแกรม ค้นหา อื่น ๆ สามารถทำภารกิจที่น่าประทับใจเช่นแก้ปัญหาในเรขาคณิตและพีชคณิตเช่น Herbert Gelernter's Geometry Theorem Prover Theorver Prover (1958) และ SAINT ซึ่งเขียนโดยนักเรียน James Slagle (1961) ของ Minsky โปรแกรมอื่นค้นหาผ่านเป้าหมายและเป้าหมายย่อยเพื่อวางแผนการดำเนินการเช่นระบบ STRIPS ที่พัฒนาขึ้นที่ Stanford เพื่อควบคุมพฤติกรรมของหุ่นยนต์ Shakey

    ภาษาธรรมชาติ

    เป้าหมายสำคัญของการวิจัย AI คือการอนุญาตให้คอมพิวเตอร์สื่อสารในภาษาธรรมชาติเช่นภาษาอังกฤษ ความสำเร็จแรกคือนักเรียนโปรแกรมของ Daniel Bobrow ซึ่งสามารถแก้ปัญหาพีชคณิตมัธยมได้

    แนวคิดเกี่ยวกับการประกาศ net semantic (เช่น house, door) เป็นโหนดและความสัมพันธ์ระหว่างแนวคิด (เช่น has-a) เป็นลิงก์ระหว่างโหนด โปรแกรม AI แรกที่ใช้ net semantic นั้นเขียนโดย Ross Quillian และเวอร์ชันที่ประสบความสำเร็จมากที่สุด (และเป็นที่ถกเถียงกัน) คือทฤษฎีแนวความคิดเชิงพึ่งพาของ Roger Schank

    ELIZ สามารถสร้างบทสนทนาที่สมจริงมากจนบางครั้งผู้ใช้ถูกหลอกให้คิดว่าพวกเขาสื่อสารกับมนุษย์ไม่ใช่โปรแกรม แต่ในความเป็นจริงเอลิซ่าไม่รู้ว่าเธอกำลังพูดถึงอะไร เธอเพียงแค่ให้การตอบกลับสำเร็จรูปหรือพูดซ้ำสิ่งที่พูดกับเธอโดยเน้นการตอบกลับด้วยกฎไวยากรณ์บางอย่าง ELIZA เป็นคนช่างพูดคนแรก

    Micro-โลก

    ในช่วงปลายทศวรรษที่ 60 มาร์วินมินสกีและซีมัวร์ Papert จากห้องปฏิบัติการ MITAI เสนอว่าการวิจัย AI ควรมุ่งเน้นไปที่สถานการณ์ที่เรียบง่ายซึ่งเป็นที่รู้จักกันในนามของไมโครโลก พวกเขาชี้ให้เห็นว่าในวิทยาศาสตร์ที่ประสบความสำเร็จเช่นฟิสิกส์หลักการพื้นฐานมักเป็นที่เข้าใจกันดีที่สุดโดยใช้แบบจำลองที่เรียบง่ายเช่นเครื่องบินไร้แรงเสียดทานหรือวัตถุสมบูรณ์แบบ งานวิจัยส่วนใหญ่เน้นไปที่ บล็อกโลก ซึ่งประกอบด้วยบล็อกสีที่มีรูปร่างและขนาดต่าง ๆ เรียงกันอยู่บนพื้นผิวเรียบ

    กระบวนทัศน์นี้นำไปสู่นวัตกรรมการทำงานของ machine vision โดย Gerald Sussman (ผู้นำทีม), Adolfo Guzman, David Waltz (ผู้คิดค้น "การแพร่กระจายของข้อ จำกัด) และโดยเฉพาะอย่างยิ่ง Patrick Winston ในเวลาเดียวกัน Minsky และ Papertbuilt stack blocks นำโลกแห่งชีวิตบล็อกความสำเร็จอันยิ่งใหญ่ของโปรแกรมไมโครเวิร์ลคือ SHRDLU ของ Terry Winograd มันสามารถสื่อสารในประโยคภาษาอังกฤษสามัญ

    การมองโลกในแง่ดี

    นักวิจัย AI รุ่นแรกสร้างการคาดการณ์เหล่านี้เกี่ยวกับงานของพวกเขา:

    1958, HA Simon และ Allen Newell: ภายในสิบปีคอมพิวเตอร์ดิจิทัลจะเป็นแชมป์หมากรุกโลก และ ภายในสิบปีคอมพิวเตอร์ดิจิทัลจะค้นพบและพิสูจน์ทฤษฎีบทคณิตศาสตร์ที่สำคัญใหม่

    2508, HA ไซมอน: เครื่องจักรจะมีความสามารถภายในยี่สิบปีของการทำงานใด ๆ ที่ผู้ชายสามารถทำได้

    1967, Marvin Minsky: ในยุคหนึ่ง... ปัญหาของการสร้าง 'ปัญญาประดิษฐ์' จะได้รับการแก้ไขอย่างมีนัยสำคัญ

    1970, Marvin Minsky (ในนิตยสาร Life): จากสามถึงแปดปีเราจะมีเครื่องจักรที่ใช้สติปัญญาทั่วไปของมนุษย์โดยเฉลี่ย

    เงิน

    ในเดือนมิถุนายนปี 1963 MIT ได้รับเงินสนับสนุน 2.2 ล้านเหรียญสหรัฐจากสำนักงานโครงการวิจัยขั้นสูงที่สร้างขึ้นใหม่ (ภายหลังเป็นที่รู้จักในชื่อ DARPA) เงินถูกนำไปใช้เพื่อกองทุน MAC ซึ่งเป็นผู้ก่อตั้ง กลุ่ม AI ซึ่งก่อตั้งโดย Minsky และ McCarthy เมื่อห้าปีก่อน DARPA ยังคงจัดหาเงินสามล้านดอลลาร์ต่อปีจนกว่า 70.DARPA จะให้เงินทุนแก่โครงการ Newell และ Simon ที่ CMU และโครงการ Stanford AI (ก่อตั้งโดย John McCarthy ในปี 1963) ห้องปฏิบัติการ AI ที่สำคัญอีกแห่งหนึ่งก่อตั้งขึ้นที่มหาวิทยาลัยเอดินเบอระโดย Donald Michie ในปี 1965 สถาบันทั้งสี่นี้จะยังคงเป็นศูนย์กลางหลักของการวิจัย AI (และการระดมทุน) ในสถาบันการศึกษาเป็นเวลาหลายปี

    เงินถูกนำเสนอโดยมีเงื่อนไขไม่กี่อย่างที่แนบมา: JCR Licklider จากนั้นผู้อำนวยการของ ARPA เชื่อว่าองค์กรของเขาควร กองทุนคนไม่ใช่โครงการ! และอนุญาตให้นักวิจัยทำตามทิศทางใดก็ได้ที่พวกเขาสนใจ สิ่งนี้สร้างบรรยากาศที่น่าตื่นเต้นที่ MIT ซึ่งให้กำเนิดวัฒนธรรมแฮ็กเกอร์ แต่วิธีการ หลุดมือ นี้จะไม่คงอยู่ต่อไป

    หุ่นยนต์

    ในญี่ปุ่นมหาวิทยาลัยวาเซดะริเริ่มโครงการ WABOT ในปี 1967 และในปี 1972 ได้เสร็จสิ้น WABOT-1 ซึ่งเป็นหุ่นยนต์ฮิวแมนนอยด์อัจฉริยะเต็มรูปแบบตัวแรกของโลกหรือหุ่นยนต์ระบบควบคุมแขนขาของมันอนุญาตให้เดินด้วยแขนขาล่าง เคลื่อนย้ายวัตถุด้วยมือโดยใช้เซ็นเซอร์สัมผัส ระบบการมองเห็นช่วยให้สามารถวัดระยะทางและทิศทางไปยังวัตถุโดยใช้ตัวรับภายนอกตาเทียมและหู และระบบการสนทนาของมันทำให้มันสามารถสื่อสารกับคนในญี่ปุ่นด้วยปากเทียม

    ฤดูหนาว AI ครั้งแรก 2517-2523

    ในปี 1970 AI ได้รับการวิพากษ์วิจารณ์และความพ่ายแพ้ทางการเงิน นักวิจัย AI ไม่ได้ชื่นชมความยากลำบากของปัญหาที่เกิดขึ้น การมองโลกในแง่ดีมหาศาลของพวกเขาทำให้ความคาดหวังสูงอย่างไม่น่าเป็นไปได้และเมื่อผลลัพธ์ที่สัญญาไว้ไม่เป็นจริงการระดมทุนสำหรับ AI ก็หายไป ในเวลาเดียวกัน, สนามของการเชื่อมต่อ (หรืออวนประสาท) ถูกปิดลงเกือบสมบูรณ์เป็นเวลา 10 ปีโดยการวิจารณ์ที่รุนแรงของมาร์วินมินสกีของ perceptron แม้ว่าปัญหากับการรับรู้ของประชาชนในช่วงปลายยุค 70 AI ความคิดใหม่ถูกสำรวจในการเขียนโปรแกรมเชิงตรรกะ การใช้เหตุผลทั่วไปและด้านอื่น ๆ อีกมากมาย

    ปัญหา

    ในอายุเจ็ดสิบต้นความสามารถของโปรแกรม AI นั้นมี จำกัด เหตุการณ์ที่น่าประทับใจที่สุดสามารถจัดการกับปัญหาเล็กน้อยที่พวกเขาควรจะแก้ไขได้ โปรแกรมทั้งหมดนั้นในบางแง่มุม ของเล่น นักวิจัย AI ได้เริ่มทำงานในขอบเขตพื้นฐานหลายประการที่ไม่สามารถเอาชนะได้ในทศวรรษ 1970 แม้ว่าข้อ จำกัด เหล่านี้บางส่วนจะถูกพิชิตในทศวรรษต่อ ๆ มา แต่คนอื่น ๆ ก็ยังคงยึดสนามไว้จนถึงทุกวันนี้

    พลังงานคอมพิวเตอร์ จำกัด: หน่วยความจำหรือความเร็วในการประมวลผลไม่เพียงพอที่จะทำสิ่งที่มีประโยชน์อย่างแท้จริง ตัวอย่างเช่นงานที่ประสบความสำเร็จของ Ross Quillian ในภาษาธรรมชาติได้แสดงให้เห็นด้วยคำศัพท์เพียงยี่สิบคำเพราะนั่นคือทั้งหมดที่จะพอดีกับความทรงจำ Hans Moravecargued ในปี 1976 ว่าคอมพิวเตอร์ยังคงอ่อนแอเกินกว่าจะแสดงปัญญาได้นับล้านครั้ง เขาแนะนำการเปรียบเทียบ: ปัญญาประดิษฐ์ต้องใช้พลังงานคอมพิวเตอร์ในลักษณะเดียวกับที่เครื่องบินต้องการแรงม้า ต่ำกว่าขีด จำกัด บางประการมันเป็นไปไม่ได้ แต่เมื่อพลังงานเพิ่มขึ้นในที่สุดมันก็กลายเป็นเรื่องง่ายได้ Moravec คาดการณ์ว่าการจับคู่ความสามารถในการตรวจจับการเคลื่อนไหวของเรตินาของมนุษย์แบบเรียลไทม์นั้นจำเป็นต้องใช้คอมพิวเตอร์ทั่วไป ความสามารถในการปฏิบัติงาน 10 ครั้ง / วินาที (1,000 MIPS) ในปี 2554 แอปพลิเคชันการมองเห็นคอมพิวเตอร์ที่ใช้งานได้จริงต้องการ 10, 000 ถึง 1, 000, 000 MIPS จากการเปรียบเทียบซูเปอร์คอมพิวเตอร์ที่เร็วที่สุดในปี 1976 Cray-1 (การค้าปลีกที่ 5 ล้านถึง 8 ล้านดอลลาร์) มีความสามารถเพียงประมาณ 80 ถึง 130 MIPS และคอมพิวเตอร์เดสก์ท็อปทั่วไปในเวลานั้นน้อยกว่า 1 MIPS

    Intractability และการระเบิดแบบ combinatorial ในปี 1972 Richard Karp (อาคารในทฤษฎีบทปี 1971 ของ Stephen Cook) พบว่ามีปัญหามากมายที่อาจแก้ไขได้ในเวลาเอ็กซ์โปเนนเชียลเท่านั้น (ตามขนาดของอินพุต) การค้นหาวิธีแก้ปัญหาที่ดีที่สุดสำหรับปัญหาเหล่านี้ต้องใช้เวลาคอมพิวเตอร์เป็นไปไม่ได้ยกเว้นเมื่อปัญหาเล็กน้อย นี่ก็หมายความว่าโซลูชั่น ของเล่น จำนวนมากที่ใช้โดยเอไออาจจะไม่ขยายไปสู่ระบบที่มีประโยชน์

    ความรู้ทั่วไปและการใช้เหตุผล แอปพลิเคชั่นปัญญาประดิษฐ์ที่สำคัญหลายอย่างเช่นการมองเห็นหรือการใช้ภาษาธรรมชาติเป็นจำนวนมหาศาลของข้อมูลเกี่ยวกับโลก: โปรแกรมจำเป็นต้องมีความคิดเกี่ยวกับสิ่งที่มันอาจจะดูหรือสิ่งที่มันกำลังพูดถึง สิ่งนี้ต้องการให้โปรแกรมรู้สิ่งเดียวกันมากที่สุดเกี่ยวกับโลกที่เด็ก ๆ ทำ นักวิจัยค้นพบในไม่ช้าว่านี่เป็นข้อมูลจำนวนมหาศาลอย่างแท้จริง ไม่มีใครในปี 1970 สามารถสร้างฐานข้อมูลที่มีขนาดใหญ่มากและไม่มีใครรู้ว่าโปรแกรมอาจเรียนรู้ข้อมูลมากมายได้อย่างไร

    Enjoying the preview?
    Page 1 of 1