ก่อนที่คุณจะเป็นส่วนที่สองของบทความจากซีรีส์ "เดี๋ยวก่อน ทั้งหมดนี้จะเป็นจริงได้อย่างไรทำไมมันยังไม่พูดถึงทุกมุม" ในซีรีส์ที่แล้ว เป็นที่รู้กันว่าการระเบิดของสติปัญญาค่อยๆ คืบคลานเข้ามาหาผู้คนบนดาวเคราะห์โลก มันพยายามที่จะพัฒนาจากการจดจ่ออย่างแคบ ๆ ไปสู่ปัญญาสากล และสุดท้ายคือปัญญาประดิษฐ์ขั้นสูง
“บางทีเรากำลังเผชิญกับปัญหาที่ยากมาก และไม่รู้ว่าจะมีการจัดสรรเวลาสำหรับการแก้ปัญหาไว้เท่าใด แต่อนาคตของมนุษยชาติอาจขึ้นอยู่กับวิธีแก้ปัญหา” - นิค บอสตรอม
ส่วนแรกของบทความเริ่มต้นอย่างไร้เดียงสาเพียงพอ เราได้พูดคุยถึงปัญญาประดิษฐ์ที่เน้นเฉพาะจุด (AI ซึ่งเชี่ยวชาญในการแก้ปัญหาเฉพาะเช่นการกำหนดเส้นทางหรือการเล่นหมากรุก) มีอยู่มากมายในโลกของเรา จากนั้นพวกเขาก็วิเคราะห์ว่าทำไมจึงเป็นเรื่องยากมากที่จะพัฒนาปัญญาประดิษฐ์แบบมีทิศทางทั่วไป (AGI หรือ AI ซึ่งในแง่ของความสามารถทางปัญญาสามารถเปรียบเทียบกับมนุษย์ในการแก้ปัญหาใดๆ) เป็นเรื่องยากมาก เราสรุปได้ว่าอัตราแบบทวีคูณของความก้าวหน้าทางเทคโนโลยีบ่งชี้ว่า AGI อาจอยู่ใกล้แค่เอื้อมในไม่ช้านี้ ในท้ายที่สุด เราตัดสินใจว่าทันทีที่เครื่องจักรเข้าถึงสติปัญญาของมนุษย์ สิ่งต่อไปนี้อาจเกิดขึ้นทันที:
เช่นเคย เรามองที่หน้าจอ โดยไม่เชื่อเลยว่าปัญญาประดิษฐ์ (ISI ที่ฉลาดกว่าใครๆ) อาจเกิดขึ้นได้ในช่วงชีวิตของเรา และเลือกอารมณ์ที่จะสะท้อนความคิดเห็นของเราต่อปัญหานี้ได้ดีที่สุด
ก่อนที่เราจะเจาะลึกถึงรายละเอียดเฉพาะของ ISI มาเตือนตัวเองก่อนว่าเครื่องจักรนั้นฉลาดหลักแหลมหมายความว่าอย่างไร
ความแตกต่างที่สำคัญอยู่ระหว่าง superintelligence ที่รวดเร็วและ superintelligence ที่มีคุณภาพ บ่อยครั้ง สิ่งแรกที่นึกถึงเมื่อนึกถึงคอมพิวเตอร์อัจฉริยะก็คือ มันสามารถคิดได้เร็วกว่าคนมาก - เร็วกว่าหลายล้านเท่า และในห้านาที คอมพิวเตอร์จะเข้าใจสิ่งที่คนจะใช้เวลาสิบปี ("ฉันรู้กังฟู!")
ฟังดูน่าประทับใจ และ ISI ควรคิดให้เร็วกว่าคนอื่น ๆ - แต่คุณสมบัติการแยกหลักคือคุณภาพของความฉลาดของมัน ซึ่งแตกต่างไปจากเดิมอย่างสิ้นเชิง มนุษย์ฉลาดกว่าลิงมาก ไม่ใช่เพราะพวกเขาคิดเร็วกว่า แต่เนื่องจากสมองของพวกมันประกอบด้วยโมดูลการรับรู้อันชาญฉลาดจำนวนหนึ่งที่ทำหน้าที่แทนภาษาที่ซับซ้อน การวางแผนระยะยาว การคิดเชิงนามธรรม ซึ่งลิงไม่สามารถทำได้ หากคุณเร่งสมองของลิงเป็นพัน ๆ ครั้ง มันจะไม่ฉลาดกว่าเรา - แม้จะผ่านไปสิบปี มันก็จะไม่สามารถประกอบตัวสร้างตามคำแนะนำได้ ซึ่งจะใช้เวลาไม่เกินสองสามชั่วโมง มีหลายอย่างที่ลิงไม่มีวันเรียนรู้ ไม่ว่ามันจะใช้เวลากี่ชั่วโมงหรือสมองของมันทำงานเร็วแค่ไหน
นอกจากนี้ ลิงไม่รู้ว่ามนุษย์เป็นอย่างไร เพราะสมองของมันไม่สามารถที่จะตระหนักถึงการมีอยู่ของโลกอื่น - ลิงอาจรู้ว่าคนคืออะไรและตึกระฟ้าคืออะไร แต่จะไม่มีวันเข้าใจว่าตึกระฟ้าถูกสร้างขึ้นโดย ผู้คน. ในโลกของเธอ ทุกสิ่งทุกอย่างเป็นของธรรมชาติ และลิงแสมไม่เพียงแต่ไม่สามารถสร้างตึกระฟ้าได้เท่านั้น แต่ยังเข้าใจด้วยว่าทุกคนสามารถสร้างมันขึ้นมาได้ และนี่คือผลจากความแตกต่างเล็กน้อยในคุณภาพของสติปัญญา
ในรูปแบบทั่วไปของความฉลาดที่เรากำลังพูดถึง หรือเพียงแค่ตามมาตรฐานของสิ่งมีชีวิต ความแตกต่างในคุณภาพของสติปัญญาระหว่างมนุษย์และลิงนั้นเล็กมากในบทความที่แล้ว เราวางความสามารถในการรับรู้ทางชีวภาพไว้บนขั้นบันได:
เพื่อให้เข้าใจว่าเครื่องจักรที่ชาญฉลาดจะจริงจังแค่ไหน ให้วางเครื่องนั้นให้สูงกว่าคนบนบันไดนั้นสองขั้น เครื่องนี้อาจเป็นเพียงอัจฉริยะเพียงเล็กน้อย แต่ความเหนือกว่าความสามารถทางปัญญาของเราจะเหมือนกับของเรา - เหนือลิง และเช่นเดียวกับที่ลิงชิมแปนซีจะไม่มีวันเข้าใจว่าตึกระฟ้าสามารถสร้างขึ้นได้ เราอาจไม่มีวันเข้าใจว่าเครื่องจักรที่อยู่สูงขึ้นไปสองสามขั้นจะเข้าใจอะไร แม้ว่าเครื่องจักรจะพยายามอธิบายให้เราฟังก็ตาม แต่นี่เป็นเพียงสองสามขั้นตอน เครื่องที่ฉลาดกว่าจะเห็นมดในตัวเรา - มันจะสอนสิ่งที่ง่ายที่สุดจากตำแหน่งของมันมาหลายปีและความพยายามเหล่านี้จะสิ้นหวังอย่างสมบูรณ์
ประเภทของ superintelligence ที่เราจะพูดถึงในวันนี้อยู่ไกลเกินกว่าบันไดนี้ นี่คือการระเบิดของสติปัญญา - เมื่อรถยนต์ฉลาดขึ้น มันก็จะสามารถเพิ่มสติปัญญาของตัวเองได้เร็วยิ่งขึ้น และค่อยๆ เพิ่มโมเมนตัม อาจต้องใช้เวลาหลายปีกว่าที่เครื่องจักรแบบนี้จะแซงหน้าชิมแปนซีในด้านสติปัญญา แต่บางทีอาจใช้เวลาสองสามชั่วโมงกว่าจะแซงหน้าเราสองสามรอย นับจากวินาทีนั้นเป็นต้นมา รถสามารถกระโดดข้ามสี่ก้าวได้ทุกวินาที นั่นคือเหตุผลที่เราควรเข้าใจว่าไม่นานหลังจากข่าวแรกที่เครื่องถึงระดับสติปัญญาของมนุษย์ปรากฏขึ้น เราอาจเผชิญกับความเป็นจริงของการอยู่ร่วมกันบนโลกกับสิ่งที่จะสูงกว่าเรามากบนบันไดนี้ (หรืออาจจะ และสูงกว่าหลายล้านเท่า):
และเนื่องจากเราได้พิสูจน์แล้วว่าการพยายามทำความเข้าใจพลังของเครื่องจักรที่อยู่เหนือเราเพียงสองขั้นตอนนั้นไร้ประโยชน์โดยสิ้นเชิง เรามานิยามกันอีกครั้งว่าไม่มีทางที่จะเข้าใจว่า ISI จะทำอะไรและผลที่ตามมาคืออะไร นี่จะเป็นของเรา ใครก็ตามที่อ้างว่าเป็นตรงกันข้ามก็ไม่เข้าใจความหมายของ superintelligence
วิวัฒนาการได้ค่อย ๆ พัฒนาสมองทางชีววิทยาอย่างช้าๆ เป็นเวลาหลายร้อยล้านปี และถ้ามนุษย์สร้างเครื่องจักรที่ชาญฉลาด ในแง่หนึ่ง เราจะอยู่เหนือวิวัฒนาการ หรือจะเป็นส่วนหนึ่งของวิวัฒนาการ บางทีวิวัฒนาการอาจทำงานในลักษณะที่สติปัญญาค่อยๆ พัฒนาไปจนถึงจุดเปลี่ยนที่ประกาศอนาคตใหม่สำหรับสิ่งมีชีวิตทั้งหมด:
ด้วยเหตุผลที่เราจะมาพูดคุยกันในภายหลัง ชุมชนวิทยาศาสตร์ส่วนใหญ่เชื่อว่าคำถามไม่ใช่ว่าเราจะไปถึงจุดให้ทิปนี้หรือไม่ แต่เมื่อใด
เราจะลงเอยที่ใดหลังจากนี้
ฉันคิดว่าไม่มีใครในโลกนี้ ทั้งฉันและเธอ จะสามารถพูดได้ว่าจะเกิดอะไรขึ้นเมื่อเราถึงจุดเปลี่ยน Nick Bostrom นักปรัชญาจากอ็อกซ์ฟอร์ดและนักทฤษฎี AI ชั้นนำเชื่อว่าเราสามารถรวมผลลัพธ์ที่เป็นไปได้ทั้งหมดออกเป็นสองประเภทกว้างๆ
ประการแรก เมื่อดูจากประวัติศาสตร์ เรารู้สิ่งต่อไปนี้เกี่ยวกับชีวิต: สปีชีส์ปรากฏขึ้น ดำรงอยู่ชั่วระยะเวลาหนึ่ง จากนั้นจึงหลุดจากคานทรงตัวและตายไปอย่างหลีกเลี่ยงไม่ได้
"ทุกสายพันธุ์ตายหมด" เป็นกฎที่น่าเชื่อถือในประวัติศาสตร์ว่า "ทุกคนต้องตายสักวันหนึ่ง" 99.9% ของสปีชีส์หลุดจากท่อนไม้ และค่อนข้างชัดเจนว่าหากสปีชีส์แขวนอยู่บนท่อนไม้นี้นานเกินไป ลมธรรมชาติหรือดาวเคราะห์น้อยกะทันหันจะทำให้ท่อนซุงพลิกกลับ Bostrom เรียกการสูญพันธุ์ว่าสถานะของตัวดึงดูด - สถานที่ที่ทุกสายพันธุ์สมดุลเพื่อไม่ให้ตกในที่ที่ยังไม่มีสายพันธุ์ใดกลับมา
และแม้ว่านักวิทยาศาสตร์ส่วนใหญ่ยอมรับว่า ISI จะมีความสามารถในการลงโทษผู้คนให้สูญพันธุ์ แต่หลายคนก็เชื่อว่าการใช้ความสามารถของ ISI จะช่วยให้บุคคล (และสปีชีส์โดยรวม) บรรลุสถานะที่สองของการดึงดูด - ความเป็นอมตะของสปีชีส์ Bostrom เชื่อว่าความเป็นอมตะของสปีชีส์นั้นเป็นสิ่งที่ดึงดูดใจพอๆ กับการสูญพันธุ์ของสปีชีส์ นั่นคือ ถ้าเรามาถึงจุดนี้ เราจะถึงวาระที่จะดำรงอยู่ชั่วนิรันดร์ ดังนั้นแม้ว่าทุกสปีชีส์จะร่วงหล่นจากไม้นี้ไปสู่ห้วงมหาภัยแห่งการสูญพันธุ์ Bostrom เชื่อว่าท่อนซุงมีสองด้านและก็ไม่ปรากฏบนโลกที่มีสติปัญญาที่จะเข้าใจว่าจะตกลงไปอีกด้านหนึ่งได้อย่างไร
หาก Bostrom และคนอื่นๆ พูดถูก และตัดสินโดยข้อมูลทั้งหมดที่มีสำหรับเรา พวกเขาอาจจะเป็นเช่นนั้น เราต้องยอมรับข้อเท็จจริงที่น่าตกใจมากสองประการ:
การเกิดขึ้นของ ISI เป็นครั้งแรกในประวัติศาสตร์จะเป็นการเปิดทางให้สายพันธุ์ต่างๆ บรรลุความเป็นอมตะและหลุดพ้นจากวัฏจักรการสูญพันธุ์ที่ร้ายแรง
การเกิดขึ้นของ ISI จะมีผลกระทบมหาศาลอย่างที่คาดไม่ถึง ซึ่งเป็นไปได้มากว่ามันจะผลักมนุษยชาติออกจากบันทึกนี้ไปในทิศทางเดียวหรืออีกทางหนึ่ง
เป็นไปได้ว่าเมื่อวิวัฒนาการมาถึงจุดเปลี่ยน ความสัมพันธ์ของคนกับสายธารแห่งชีวิตจะยุติลง และสร้างโลกใหม่ไม่ว่าจะมีหรือไม่มีก็ตาม
สิ่งนี้นำไปสู่คำถามที่น่าสนใจซึ่งมีแต่คนเกียจคร้านเท่านั้นที่จะไม่ถาม: เมื่อไหร่เราจะถึงจุดเปลี่ยนและมันจะพาเราไปที่ไหน? ไม่มีใครในโลกรู้คำตอบสำหรับคำถามสองข้อนี้ แต่คนฉลาดหลายคนพยายามหาคำตอบมาหลายทศวรรษแล้ว สำหรับบทความที่เหลือ เราจะหาที่มาที่ไป
* * *
มาเริ่มกันที่ส่วนแรกของคำถามนี้: เมื่อไหร่ที่เราควรถึงจุดเปลี่ยน? กล่าวอีกนัยหนึ่ง: เหลือเวลาอีกเท่าไรจนกว่าเครื่องแรกจะถึงซุปเปอร์อินเทลลิเจนซ์?
ความคิดเห็นแตกต่างกันไปในแต่ละกรณี หลายคนรวมถึง Professor Vernor Vinge, นักวิทยาศาสตร์ Ben Herzel, Bill Joy ผู้ร่วมก่อตั้ง Sun Microsystems, Ray Kurzweil นักอนาคตศาสตร์ เห็นด้วยกับ Jeremy Howard ผู้เชี่ยวชาญด้านแมชชีนเลิร์นนิง เมื่อเขานำเสนอกราฟต่อไปนี้ที่ TED Talk:
คนเหล่านี้มีความเห็นเหมือนกันว่า ISI กำลังจะมาในเร็วๆ นี้ การเติบโตแบบทวีคูณซึ่งดูเหมือนช้าสำหรับเราในทุกวันนี้ จะระเบิดอย่างแท้จริงในอีกไม่กี่ทศวรรษข้างหน้า
คนอื่นๆ เช่น Paul Allen ผู้ร่วมก่อตั้งของ Microsoft นักจิตวิทยาด้านการวิจัย Gary Marcus ผู้เชี่ยวชาญด้านคอมพิวเตอร์ Ernest Davis และผู้ประกอบการด้านเทคโนโลยี Mitch Kapor เชื่อว่านักคิดอย่าง Kurzweil ประเมินปัญหาอย่างจริงจังต่ำเกินไป และคิดว่าเราไม่ได้ใกล้เคียงกับ คะแนนสะสม.
ค่ายของ Kurzweil ให้เหตุผลว่าการประเมินค่าต่ำเพียงอย่างเดียวที่เกิดขึ้นคือการละเลยการเติบโตแบบทวีคูณ และผู้สงสัยสามารถเปรียบเทียบได้กับผู้ที่ดูอินเทอร์เน็ตที่เฟื่องฟูอย่างช้าๆในปี 1985 และแย้งว่าจะไม่มีผลกระทบต่อโลกในอนาคตอันใกล้นี้
ผู้ต้องสงสัยอาจปัดป้องว่าการก้าวหน้าในแต่ละขั้นต่อไปเป็นเรื่องยากขึ้น เมื่อพูดถึงการพัฒนาความฉลาดแบบทวีคูณ ซึ่งทำให้ธรรมชาติของความก้าวหน้าทางเทคโนโลยีเป็นแบบเลขชี้กำลังเป็นกลาง เป็นต้น
ค่ายที่สามซึ่ง Nick Bostrom อยู่นั้นไม่เห็นด้วยกับค่ายแรกหรือครั้งที่สอง โดยเถียงว่า ก) ทั้งหมดนี้สามารถเกิดขึ้นได้อย่างแน่นอนในอนาคตอันใกล้ และ b) ไม่มีการรับประกันว่าสิ่งนี้จะเกิดขึ้นเลยหรือจะใช้เวลานานกว่านั้น
คนอื่นๆ เช่น นักปราชญ์ Hubert Dreyfus เชื่อว่าทั้งสามกลุ่มเชื่ออย่างไร้เดียงสาว่าจะมีจุดเปลี่ยน และเรามักจะไม่มีวันไปถึง ISI
จะเกิดอะไรขึ้นเมื่อเรารวบรวมความคิดเห็นทั้งหมดนี้
ในปี 2013 Bostrom ได้ทำการสำรวจซึ่งเขาได้สัมภาษณ์ผู้เชี่ยวชาญด้าน AI หลายร้อยคนในการประชุมต่างๆ ในหัวข้อต่อไปนี้: "การคาดการณ์ของคุณสำหรับการบรรลุ AGI ในระดับมนุษย์จะเป็นอย่างไร" และขอให้เราตั้งชื่อปีในแง่ดี (ซึ่งเราจะมี AGI ที่มีโอกาส 10 เปอร์เซ็นต์) สมมติฐานที่เป็นจริง (ปีที่เราจะได้ AGI ที่มีความเป็นไปได้ 50 เปอร์เซ็นต์) และสมมติฐานที่มั่นใจ (ปีแรกสุดที่ AGI จะปรากฏขึ้นตั้งแต่ความน่าจะเป็นร้อยละ 90) นี่คือผลลัพธ์:
* ปีที่มองโลกในแง่ดีโดยเฉลี่ย (10%): 2022
* ปีที่เป็นจริงโดยเฉลี่ย (50%): 2040
* ปีที่มองโลกในแง่ร้ายโดยเฉลี่ย (90%): 2075
ผู้ตอบแบบสอบถามโดยเฉลี่ยเชื่อว่าใน 25 ปีเราจะมี AGI มากกว่าที่จะไม่มี โอกาส 90 เปอร์เซ็นต์ของ AGI ที่เกิดขึ้นภายในปี 2075 หมายความว่าหากคุณยังอายุน้อยอยู่ในขณะนี้ เป็นไปได้มากว่าจะเกิดขึ้นในชีวิตของคุณ
การศึกษาแยกเมื่อเร็ว ๆ นี้ดำเนินการโดย James Barratt (ผู้เขียนหนังสือที่ได้รับการยกย่องและดีมาก สิ่งประดิษฐ์ล่าสุดของเรา ตัดตอนมาจาก ฉันนำเสนอต่อความสนใจของผู้อ่าน Hi-News.ru) และ Ben Hertzel ในการประชุม AGI ซึ่งเป็นงานประชุม AGI ประจำปี ได้แสดงความเห็นของผู้คนในปีที่เราได้รับ AGI: 2030, 2050, 2100 ภายหลังหรือไม่เลย นี่คือผลลัพธ์:
* 2030: 42% ของผู้ตอบแบบสอบถาม
* 2050: 25%
* 2100: 20%
หลัง 2100: 10%
ไม่เคยเลย: 2%
คล้ายกับผลลัพธ์ของ Bostrom ในแบบสำรวจของ Barratt มากกว่า 2 ใน 3 ของผู้ตอบแบบสำรวจเชื่อว่า AGI จะมาถึงภายในปี 2050 และน้อยกว่าครึ่งเชื่อว่า AGI จะปรากฏในอีก 15 ปีข้างหน้า เป็นที่น่าสังเกตว่าโดยหลักการแล้วมีเพียง 2% ของผู้ตอบแบบสอบถามเท่านั้นที่ไม่เห็น AGI ในอนาคตของเรา
แต่ AGI ไม่ใช่จุดเปลี่ยนเหมือน ISI ตามผู้เชี่ยวชาญ เราจะมี ISI เมื่อใด
Bostrom ถามผู้เชี่ยวชาญเมื่อเราจะไปถึง ASI: ก) สองปีหลังจากเข้าถึง AGI (นั่นคือเกือบจะในทันทีเนื่องจากการระเบิดของหน่วยสืบราชการลับ); b) หลังจาก 30 ปี ผลลัพธ์?
ความคิดเห็นโดยเฉลี่ยคือการเปลี่ยนแปลงอย่างรวดเร็วจาก AGI เป็น ISI จะเกิดขึ้นโดยมีความน่าจะเป็น 10% แต่ในอีก 30 ปีหรือน้อยกว่านั้นจะเกิดขึ้นโดยมีความน่าจะเป็น 75%
จากข้อมูลนี้ เราไม่ทราบว่าวันที่ใดที่ผู้ตอบแบบสอบถามจะเรียกโอกาส 50 เปอร์เซ็นต์ของ ASI แต่จากสองคำตอบข้างต้น สมมติว่าเป็นเวลา 20 ปี นั่นคือผู้เชี่ยวชาญด้าน AI ชั้นนำของโลกเชื่อว่าจุดเปลี่ยนจะเกิดขึ้นในปี 2060 (AGI จะปรากฏในปี 2040 + จะใช้เวลา 20 ปีในการเปลี่ยนจาก AGI เป็น ISI)
แน่นอนว่าสถิติข้างต้นทั้งหมดเป็นการเก็งกำไรและเป็นเพียงความคิดเห็นของผู้เชี่ยวชาญในด้านปัญญาประดิษฐ์ แต่ยังระบุด้วยว่าผู้สนใจส่วนใหญ่เห็นด้วยว่าภายในปี 2060 AI มีแนวโน้มที่จะมาถึง ในเวลาเพียง 45 ปี
มาต่อกันที่คำถามที่สอง เมื่อเราถึงจุดให้ทิป ทางเลือกที่อันตราย ข้างไหนจะตัดสินเรา?
Superintelligence จะมีพลังที่ทรงพลังที่สุด และคำถามที่สำคัญสำหรับเรามีดังนี้:
ใครหรืออะไรจะควบคุมพลังนี้และอะไรจะเป็นแรงจูงใจของพวกเขา?
คำตอบสำหรับคำถามนี้จะขึ้นอยู่กับว่า ISI ได้รับการพัฒนาที่ทรงพลังอย่างไม่น่าเชื่อ การพัฒนาที่น่าสะพรึงกลัวอย่างหาที่เปรียบไม่ได้ หรือบางอย่างในระหว่างนั้น
แน่นอนว่าชุมชนผู้เชี่ยวชาญก็พยายามตอบคำถามเหล่านี้เช่นกัน ผลสำรวจของ Bostrom วิเคราะห์ความเป็นไปได้ของผลกระทบที่อาจเกิดขึ้นจากผลกระทบของ AGI ต่อมนุษยชาติ และปรากฎว่ามีโอกาส 52 เปอร์เซ็นต์ที่ทุกอย่างจะไปได้ดี และมีโอกาส 31 เปอร์เซ็นต์ที่ทุกอย่างจะแย่หรือแย่มาก โพลที่แนบมาท้ายหัวข้อก่อนหน้าของหัวข้อนี้ ซึ่งดำเนินการในหมู่พวกคุณ ผู้อ่าน Hi-News ที่รัก แสดงให้เห็นผลลัพธ์เดียวกัน สำหรับผลลัพธ์ที่ค่อนข้างเป็นกลาง ความน่าจะเป็นเพียง 17% กล่าวอีกนัยหนึ่ง เราทุกคนเชื่อว่า AGI จะเป็นเรื่องใหญ่ นอกจากนี้ยังเป็นที่น่าสังเกตว่าการสำรวจนี้เกี่ยวข้องกับการเกิดขึ้นของ AGI - ในกรณีของ ISI เปอร์เซ็นต์ของความเป็นกลางจะลดลง
ก่อนที่เราจะคิดให้ลึกซึ้งยิ่งขึ้นเกี่ยวกับด้านดีและด้านเสียของคำถาม เรามารวมคำถามทั้งสองข้างเข้าด้วยกันว่า "สิ่งนี้จะเกิดขึ้นเมื่อใด" และ "นี่เป็นสิ่งที่ดีหรือไม่ดี" ลงในตารางที่ครอบคลุมมุมมองของผู้เชี่ยวชาญส่วนใหญ่
เราจะพูดถึงแคมป์หลักในอีกสักครู่ แต่ก่อนอื่น ให้ตัดสินใจเกี่ยวกับตำแหน่งของคุณ เป็นไปได้ว่าคุณอยู่ในที่เดียวกับฉันก่อนที่ฉันจะเริ่มทำงานในหัวข้อนี้ มีสาเหตุหลายประการที่ทำให้ผู้คนไม่นึกถึงหัวข้อนี้เลย:
* ดังที่กล่าวไว้ในส่วนแรก ภาพยนตร์ได้ทำให้ผู้คนและข้อเท็จจริงสับสนอย่างร้ายแรง นำเสนอสถานการณ์ที่ไม่สมจริงด้วยปัญญาประดิษฐ์ ซึ่งนำไปสู่ความจริงที่ว่าเราไม่ควรเอา AI อย่างจริงจังเลย James Barratt เปรียบสถานการณ์นี้กับการออกโดยศูนย์ควบคุมโรค (CDC) พร้อมคำเตือนอย่างจริงจังเกี่ยวกับแวมไพร์ในอนาคตของเรา
* เนื่องจากสิ่งที่เรียกว่าอคติทางปัญญา จึงเป็นเรื่องยากสำหรับเราที่จะเชื่อว่าบางสิ่งมีจริงจนกว่าเราจะมีหลักฐาน เราสามารถจินตนาการได้อย่างมั่นใจว่านักวิทยาศาสตร์คอมพิวเตอร์ในปี 1988 มักพูดคุยเกี่ยวกับผลที่ตามมาของอินเทอร์เน็ตและสิ่งที่จะเกิดขึ้นเป็นประจำ แต่ผู้คนแทบไม่เชื่อว่ามันจะเปลี่ยนชีวิตของพวกเขาจนกว่าจะเกิดขึ้นจริง เป็นเพียงว่าคอมพิวเตอร์ไม่ทราบวิธีการทำสิ่งนี้ในปี 1988 และผู้คนก็มองที่คอมพิวเตอร์ของพวกเขาและคิดว่า “จริงเหรอ? นี่คือสิ่งที่จะเปลี่ยนโลกหรือไม่ จินตนาการของพวกเขาถูกจำกัดด้วยสิ่งที่พวกเขาเรียนรู้จากประสบการณ์ส่วนตัว พวกเขารู้ว่าคอมพิวเตอร์คืออะไร และเป็นการยากที่จะจินตนาการว่าคอมพิวเตอร์จะมีความสามารถอะไรในอนาคตสิ่งเดียวกันนี้กำลังเกิดขึ้นกับ AI เราได้ยินมาว่ามันจะกลายเป็นเรื่องจริงจัง แต่เนื่องจากเรายังไม่เคยเจอหน้ากัน และโดยทั่วไปแล้ว เราสังเกตเห็นการสำแดงที่ค่อนข้างอ่อนแอของ AI ในโลกสมัยใหม่ของเรา จึงค่อนข้างยากที่เราจะเชื่อว่ามันจะรุนแรง เปลี่ยนชีวิตของเรา เป็นการขัดต่ออคติเหล่านี้ที่ผู้เชี่ยวชาญจำนวนมากจากทุกค่ายรวมทั้งผู้สนใจ ต่างต่อต้านที่จะพยายามดึงความสนใจของเราผ่านเสียงของความเห็นแก่ตัวส่วนรวมในชีวิตประจำวัน
* แม้ว่าเราจะเชื่อในสิ่งทั้งหมดนี้ - วันนี้คุณคิดเกี่ยวกับข้อเท็จจริงที่ว่าคุณจะใช้เวลาที่เหลือชั่วนิรันดร์ในความว่างเปล่ากี่ครั้งแล้ว? นิดหน่อยเห็นด้วย แม้ว่าความจริงข้อนี้สำคัญกว่าสิ่งที่คุณทำในแต่ละวัน นี่เป็นเพราะว่าสมองของเรามักจะจดจ่ออยู่กับสิ่งเล็กๆ น้อยๆ ในชีวิตประจำวัน ไม่ว่าเราจะพบว่าตัวเองอยู่ในสถานการณ์ระยะยาวที่ลวงตาเพียงใด แค่เราถูกสร้างมา
เป้าหมายหนึ่งของบทความนี้คือการพาคุณออกจากค่ายที่ชื่อว่า "ผมชอบคิดเรื่องอื่นๆ" แล้วพาคุณไปอยู่ในค่ายผู้เชี่ยวชาญ แม้ว่าคุณจะยืนอยู่ตรงทางแยกระหว่างเส้นประสองเส้นในจัตุรัส ข้างบนนี้ ตัดสินใจไม่ถูก
ในระหว่างการวิจัย เห็นได้ชัดว่าความคิดเห็นของคนส่วนใหญ่เคลื่อนไปที่ "ค่ายหลัก" อย่างรวดเร็ว และผู้เชี่ยวชาญสามในสี่ตกอยู่ในสองค่ายย่อยในค่ายหลัก
เราจะไปเยี่ยมชมทั้งสองค่ายนี้อย่างเต็มรูปแบบ มาเริ่มกันที่ความสนุก
ทำไมอนาคตถึงเป็นความฝันที่ยิ่งใหญ่ที่สุดของเรา?
ขณะที่เราสำรวจโลก AI เราพบว่ามีคนจำนวนมากที่น่าประหลาดใจในเขตความสะดวกสบายของเรา ผู้คนในจตุรัสขวาบนต่างพากันตื่นเต้น พวกเขาเชื่อว่าเราจะตกอยู่ด้านดีของท่อนซุง และพวกเขายังเชื่อว่าเราจะมาถึงจุดนี้อย่างหลีกเลี่ยงไม่ได้ สำหรับพวกเขา อนาคตเป็นเพียงสิ่งที่ดีที่สุดที่มีแต่ความฝันเท่านั้น
จุดที่แยกคนเหล่านี้จากนักคิดคนอื่นไม่ใช่ว่าพวกเขาต้องการที่จะอยู่ในด้านที่มีความสุข - แต่พวกเขาแน่ใจว่าเป็นเธอที่รอเราอยู่
ความมั่นใจนี้มาจากการโต้เถียง นักวิจารณ์เชื่อว่ามันมาจากความตื่นเต้นที่ตื่นตาตื่นใจซึ่งบดบังด้านลบที่อาจเกิดขึ้น แต่ผู้เสนอกล่าวว่าการคาดการณ์ที่มืดมนนั้นไร้เดียงสาอยู่เสมอ เทคโนโลยียังคงดำเนินต่อไปและจะช่วยเรามากกว่าทำร้ายเราเสมอ
คุณมีอิสระที่จะเลือกความคิดเห็นใดๆ เหล่านี้ แต่ละทิ้งความสงสัยและมองด้านที่มีความสุขของคานทรงตัวให้ดี พยายามยอมรับความจริงที่ว่าทุกสิ่งที่คุณอ่านเกี่ยวกับอาจเกิดขึ้นแล้ว หากคุณแสดงให้นักล่าสัตว์เห็นโลกแห่งความสะดวกสบาย เทคโนโลยี และความอุดมสมบูรณ์อย่างไม่รู้จบ ดูเหมือนว่าพวกเขาจะเป็นนิยายเวทมนตร์ และเราประพฤติตัวค่อนข้างสุภาพ ไม่สามารถยอมรับได้ว่าการเปลี่ยนแปลงที่เข้าใจยากแบบเดียวกันรอเราอยู่ในอนาคต
Nick Bostrom อธิบายสามเส้นทางที่ระบบ AI อัจฉริยะสามารถดำเนินการได้:
* คำพยากรณ์ที่สามารถตอบคำถามได้อย่างแม่นยำ รวมถึงคำถามยากๆ ที่มนุษย์ไม่สามารถตอบได้ เช่น "ทำอย่างไรให้เครื่องยนต์ของรถยนต์มีประสิทธิภาพมากขึ้น" Google เป็นประเภทดั้งเดิมของ "oracle"
* มารที่จะปฏิบัติตามคำสั่งระดับสูงใดๆ โดยใช้ตัวประกอบโมเลกุลเพื่อสร้างเครื่องยนต์รถยนต์รุ่นใหม่ที่มีประสิทธิภาพมากขึ้น และจะรอคำสั่งต่อไป
* อธิปไตยที่จะเข้าถึงได้อย่างกว้างขวางและมีความสามารถในการทำงานอย่างอิสระในโลก ตัดสินใจด้วยตนเองและปรับปรุงกระบวนการ เขาจะคิดค้นวิธีการขนส่งส่วนตัวที่ถูกกว่า เร็วกว่า และปลอดภัยกว่ารถยนต์
คำถามและงานเหล่านี้ซึ่งดูเหมือนยากสำหรับเรา จะดูเหมือนกับระบบอัจฉริยะเสมือนว่ามีคนขอให้ปรับปรุงสถานการณ์ "ดินสอของฉันตกลงมาจากโต๊ะ" ซึ่งคุณก็แค่หยิบมันขึ้นมาแล้ววางกลับ
Eliezer Yudkowski ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ชาวอเมริกัน กล่าวไว้อย่างดี:
“ไม่มีปัญหายาก มีแต่ปัญหาที่ยากสำหรับสติปัญญาระดับหนึ่งเท่านั้นก้าวให้สูงขึ้นหนึ่งก้าว (ในแง่ของความฉลาด) และปัญหาบางอย่างก็จะย้ายจากประเภท "เป็นไปไม่ได้" ไปสู่ค่ายที่ "ชัดเจน" สูงขึ้นหนึ่งขั้น - และทุกอย่างจะชัดเจน"
มีนักวิทยาศาสตร์ นักประดิษฐ์ และผู้ประกอบการที่ใจร้อนหลายคนที่เลือกโซนความสบายอย่างมั่นใจจากโต๊ะของเรา แต่เราต้องการคู่มือเพียงเล่มเดียวเพื่อก้าวไปสู่สิ่งที่ดีที่สุดในโลกที่ดีที่สุดแห่งนี้
Ray Kurzweil คลุมเครือ บางคนยกย่องความคิดของเขา บางคนดูถูกเขา บางคนอยู่ตรงกลาง - Douglas Hofstadter พูดคุยเกี่ยวกับแนวคิดของหนังสือของ Kurzweil พูดอย่างฉะฉานว่า ราวกับว่าคุณกินอาหารดีๆ มากมาย และอึสุนัขตัวเล็ก ๆ แล้วผสมทุกอย่างในลักษณะที่เป็นไปไม่ได้ที่จะเข้าใจ อะไรดีอะไรชั่ว”
ไม่ว่าคุณจะชอบความคิดของเขาหรือไม่ก็ตาม เป็นไปไม่ได้ที่จะส่งต่อโดยไม่สนใจ เขาเริ่มประดิษฐ์สิ่งต่างๆ ตั้งแต่ยังเป็นวัยรุ่น และในปีต่อๆ มา เขาได้คิดค้นสิ่งที่สำคัญหลายอย่าง รวมถึงเครื่องสแกนแบบแท่นเครื่องแรก เครื่องสแกนเครื่องแรกที่แปลงข้อความเป็นคำพูด เครื่องสังเคราะห์เพลง Kurzweil ที่รู้จักกันดี (เปียโนไฟฟ้าตัวแรกของจริง) และ ตัวรู้จำเสียงพูดที่ประสบความสำเร็จในเชิงพาณิชย์เครื่องแรก เขายังเป็นผู้เขียนหนังสือโลดโผนห้าเล่มอีกด้วย Kurzweil ชื่นชมในการคาดการณ์ที่กล้าหาญของเขาและประวัติของเขาค่อนข้างดี - ในช่วงปลายยุค 80 เมื่ออินเทอร์เน็ตยังอยู่ในช่วงเริ่มต้น เขาคาดการณ์ว่าภายในปี 2000 เว็บจะกลายเป็นปรากฏการณ์ระดับโลก The Wall Street Journal เรียก Kurzweil ว่าเป็น "อัจฉริยะที่ไม่สงบ" Forbes "เครื่องคิดระดับโลก" Inc. นิตยสาร - "ทายาทโดยชอบธรรมของเอดิสัน" บิล เกตส์ - "ผู้ที่ทำนายอนาคตของปัญญาประดิษฐ์ได้ดีที่สุด" ในปี 2012 Larry Page ผู้ร่วมก่อตั้ง Google ได้เชิญ Kurzweil ให้ดำรงตำแหน่ง CTO ในปี 2011 เขาได้ร่วมก่อตั้ง Singularity University ซึ่งจัดโดย NASA และได้รับการสนับสนุนจาก Google บางส่วน
ชีวประวัติของเขามีความสำคัญ เมื่อ Kurzweil พูดถึงวิสัยทัศน์ของเขาในอนาคต มันดูจะบ้าๆบอๆ แต่ที่บ้าๆ บอๆ เกี่ยวกับเรื่องนี้ก็คือเขาห่างไกลจากความบ้า เขาเป็นคนฉลาด มีการศึกษา และมีเหตุผลอย่างเหลือเชื่อ คุณอาจคิดว่าเขาผิดในการทำนาย แต่เขาไม่ใช่คนโง่ คำทำนายของ Kurzweil ได้รับการแบ่งปันโดยผู้เชี่ยวชาญด้านเขตสบายหลายคน Peter Diamandis และ Ben Herzel นี่คือสิ่งที่เขาคิดว่าจะเกิดขึ้น
ลำดับเหตุการณ์
Kurzweil เชื่อว่าคอมพิวเตอร์จะไปถึงระดับของปัญญาประดิษฐ์ทั่วไป (AGI) ภายในปี 2029 และภายในปี 2045 เราจะไม่เพียงแต่มีปัญญาประดิษฐ์ขั้นสูงเท่านั้น แต่ยังรวมถึงโลกใหม่อย่างสมบูรณ์ ซึ่งเป็นเวลาที่เรียกว่าภาวะเอกฐาน ลำดับเหตุการณ์ของ AI ยังคงถือว่าเกินจริงอย่างมาก แต่ในช่วง 15 ปีที่ผ่านมา การพัฒนาอย่างรวดเร็วของระบบปัญญาประดิษฐ์ (AI) ที่มุ่งเน้นอย่างสูงได้บังคับให้ผู้เชี่ยวชาญหลายคนต้องเข้าข้าง Kurzweil การคาดการณ์ของเขายังคงมีความทะเยอทะยานมากกว่าการสำรวจของ Bostrom (AGI ภายในปี 2040, ISI ภายในปี 2060) แต่ไม่มากนัก
จากข้อมูลของ Kurzweil ภาวะภาวะเอกฐานในปี 2045 นั้นถูกขับเคลื่อนโดยการปฏิวัติเทคโนโลยีชีวภาพ นาโนเทคโนโลยี และที่สำคัญกว่านั้นคือ AI แต่ก่อนที่เราจะดำเนินการต่อ - และนาโนเทคโนโลยีกำลังติดตามปัญญาประดิษฐ์อย่างใกล้ชิด - ลองใช้เวลาสักครู่เพื่อนาโนเทคโนโลยี
คำไม่กี่คำเกี่ยวกับนาโนเทคโนโลยี
เรามักเรียกเทคโนโลยีนาโนที่จัดการกับการจัดการเรื่องต่างๆ ในช่วง 1-100 นาโนเมตร นาโนเมตรคือหนึ่งในพันล้านของเมตรหรือหนึ่งในล้านของมิลลิเมตร ภายในช่วง 1-100 นาโนเมตร ไวรัส (เส้นผ่านศูนย์กลาง 100 นาโนเมตร) ดีเอ็นเอ (ความกว้าง 10 นาโนเมตร) โมเลกุลของเฮโมโกลบิน (5 นาโนเมตร) กลูโคส (1 นาโนเมตร) และอื่นๆ สามารถรองรับได้ หากนาโนเทคโนโลยีตกอยู่ภายใต้การดูแลของเรา ขั้นตอนต่อไปคือการจัดการอะตอมแต่ละอะตอมที่มีขนาดน้อยกว่าหนึ่งลำดับความสำคัญ (~, 1 นาโนเมตร)
เพื่อให้เข้าใจว่ามนุษย์ประสบปัญหาที่พยายามจัดการเรื่องในระดับใด ให้ข้ามไปยังระดับที่ใหญ่กว่า สถานีอวกาศนานาชาติอยู่ห่างจากโลก 481 กิโลเมตรถ้ามนุษย์เป็นยักษ์และตีหัว ISS พวกเขาจะใหญ่กว่าตอนนี้ 250,000 เท่า ถ้าคุณขยายอะไรตั้งแต่ 1 ถึง 100 นาโนเมตร 250,000 เท่า คุณจะได้ 2.5 เซนติเมตร นาโนเทคโนโลยีเทียบเท่ากับมนุษย์ที่โคจรรอบสถานีอวกาศนานาชาติ พยายามควบคุมสิ่งต่างๆ ให้มีขนาดเท่าเม็ดทรายหรือลูกตา เพื่อไปยังระดับถัดไป - การควบคุมอะตอมแต่ละตัว - ยักษ์จะต้องวางตำแหน่งวัตถุอย่างระมัดระวังด้วยเส้นผ่านศูนย์กลาง 1/40 มม. คนทั่วไปต้องใช้กล้องจุลทรรศน์จึงจะมองเห็นได้
เป็นครั้งแรกที่ Richard Feynman พูดถึงนาโนเทคโนโลยีในปี 1959 จากนั้นเขาก็กล่าวว่า: เท่าที่ฉันสามารถบอกได้หลักการฟิสิกส์อย่าพูดกับความเป็นไปได้ของการควบคุมอะตอมด้วยอะตอม โดยหลักการแล้ว นักฟิสิกส์สามารถสังเคราะห์สารเคมีใดๆ ที่นักเคมีได้เขียนไว้ ยังไง? โดยการวางอะตอมโดยที่นักเคมีบอกว่าได้สารมา” นี่คือความเรียบง่ายทั้งหมด หากคุณรู้วิธีเคลื่อนย้ายโมเลกุลหรืออะตอมแต่ละตัว คุณสามารถทำได้เกือบทุกอย่าง
นาโนเทคโนโลยีกลายเป็นสาขาวิทยาศาสตร์ที่จริงจังในปี 1986 เมื่อวิศวกร Eric Drexler นำเสนอรากฐานในหนังสือของเขา Machines of Creation แต่ Drexler เองเชื่อว่าผู้ที่ต้องการเรียนรู้เพิ่มเติมเกี่ยวกับแนวคิดสมัยใหม่ในนาโนเทคโนโลยีควรอ่านหนังสือ 2013 ของเขา Full Abundance (หัวรุนแรง) ความอุดมสมบูรณ์).
คำสองสามคำเกี่ยวกับ "สารที่หนาสีเทา"
เราเจาะลึกเข้าไปในนาโนเทคโนโลยี โดยเฉพาะอย่างยิ่งหัวข้อ "สารที่หนาสีเทา" เป็นหนึ่งในหัวข้อที่ไม่น่าพอใจในด้านนาโนเทคโนโลยีซึ่งไม่สามารถละเลยได้ ทฤษฎีนาโนเทคโนโลยีรุ่นเก่าได้เสนอวิธีการประกอบนาโนที่เกี่ยวข้องกับการสร้างหุ่นยนต์นาโนขนาดเล็กหลายล้านล้านตัวที่จะทำงานร่วมกันเพื่อสร้างบางสิ่งบางอย่าง วิธีหนึ่งในการสร้างนาโนโรบ็อตหลายล้านล้านตัวคือการสร้างหุ่นยนต์ที่สามารถจำลองตัวเองได้ นั่นคือ จากหนึ่งเป็นสอง จากสองถึงสี่ และอื่นๆ นาโนบอทหลายล้านล้านตัวจะปรากฏขึ้นในหนึ่งวัน นี่คือพลังของการเติบโตแบบทวีคูณ ตลกใช่มั้ย?
เป็นเรื่องตลก แต่ตรงจนนำไปสู่วิบัติ ปัญหาคือพลังของการเติบโตแบบทวีคูณ ซึ่งเป็นวิธีที่สะดวกมากในการสร้างนาโนบ็อตจำนวนล้านล้านอย่างรวดเร็ว ทำให้การจำลองตัวเองเป็นสิ่งที่น่ากลัวในระยะยาว จะเกิดอะไรขึ้นหากระบบล่ม และแทนที่จะหยุดการจำลองแบบสำหรับสองล้านล้าน นาโนบ็อตยังคงแพร่พันธุ์ต่อไป จะเกิดอะไรขึ้นหากกระบวนการทั้งหมดนี้ขึ้นอยู่กับคาร์บอน ชีวมวลของโลกประกอบด้วยคาร์บอน 10 ^ 45 อะตอม นาโนบ็อตควรอยู่ในลำดับของอะตอมคาร์บอน 10 ^ 6 อะตอม ดังนั้น นาโนบ็อต 10 ^ 39 ตัวจะกินชีวิตทั้งหมดบนโลกด้วยการทำซ้ำเพียง 130 ครั้ง มหาสมุทรของนาโนบอท ("สารที่หนาสีเทา") จะท่วมโลก นักวิทยาศาสตร์คิดว่านาโนบอทสามารถทำซ้ำได้ภายใน 100 วินาที ซึ่งหมายความว่าความผิดพลาดง่ายๆ สามารถฆ่าทุกชีวิตบนโลกได้ในเวลาเพียง 3.5 ชั่วโมง
มันอาจจะเลวร้ายยิ่งกว่านั้น หากผู้ก่อการร้ายและผู้เชี่ยวชาญที่ไม่เอื้ออำนวยไปถึงมือของนาโนเทคโนโลยี พวกเขาสามารถสร้างนาโนบ็อตหลายล้านล้านตัวและตั้งโปรแกรมให้พวกมันแพร่กระจายไปทั่วโลกอย่างเงียบ ๆ ในอีกไม่กี่สัปดาห์ข้างหน้า จากนั้นเพียงกดปุ่ม ในเวลาเพียง 90 นาที พวกเขาจะกินทุกอย่างเลยโดยไม่มีโอกาส
ในขณะที่เรื่องราวสยองขวัญนี้ได้รับการพูดคุยกันอย่างกว้างขวางเป็นเวลาหลายปี ข่าวดีก็คือว่ามันเป็นเพียงเรื่องสยองขวัญ Eric Drexler ผู้ก่อตั้งคำว่า "grey goo" กล่าวเมื่อเร็วๆ นี้ว่า “ผู้คนชอบเรื่องราวสยองขวัญ และนี่เป็นหนึ่งในเรื่องราวสยองขวัญซอมบี้ ความคิดนี้กินสมองอยู่แล้ว”
เมื่อเราไปถึงก้นบึ้งของนาโนเทคโนโลยี เราก็สามารถใช้มันเพื่อสร้างอุปกรณ์ทางเทคนิค, เสื้อผ้า, อาหาร, ผลิตภัณฑ์ชีวภาพ - เซลล์เม็ดเลือด, สารต้านไวรัสและมะเร็ง, เนื้อเยื่อของกล้ามเนื้อ และอื่นๆ - อะไรก็ได้ และในโลกที่ใช้เทคโนโลยีนาโน ต้นทุนของวัสดุจะไม่ผูกติดอยู่กับความขาดแคลนหรือความซับซ้อนของกระบวนการผลิตอีกต่อไป แต่จะเชื่อมโยงกับความซับซ้อนของโครงสร้างอะตอมของมัน ในโลกของนาโนเทคโนโลยี เพชรอาจมีราคาถูกกว่ายางลบ
เรายังไม่ใกล้ถึงที่นั่นและไม่ชัดเจนนักว่าเราประเมินหรือประเมินความซับซ้อนของเส้นทางนี้ต่ำไปหรือไม่ อย่างไรก็ตาม ทุกอย่างไปถึงจุดที่นาโนเทคโนโลยีอยู่ไม่ไกล Kurzweil ถือว่าภายในปี 2020 เราจะมีพวกเขา โลกระบุว่านาโนเทคโนโลยีสามารถให้คำมั่นสัญญาถึงอนาคตที่ยิ่งใหญ่ ดังนั้นจึงลงทุนหลายพันล้านเพื่ออนาคต
ลองนึกภาพว่าคอมพิวเตอร์อัจฉริยะจะมีโอกาสเกิดขึ้นได้อย่างไร หากได้รับเครื่องประกอบระดับนาโนที่เชื่อถือได้ แต่นาโนเทคโนโลยีเป็นแนวคิดของเรา และเรากำลังพยายามที่จะขี่มัน มันเป็นเรื่องยากสำหรับเรา จะเกิดอะไรขึ้นหากพวกเขาเป็นเพียงเรื่องตลกสำหรับระบบ ISI และ ISI เองนั้นมาพร้อมกับเทคโนโลยีที่จะมีพลังมากกว่าสิ่งที่เราคิดโดยหลักการแล้วหลายเท่า เราเห็นด้วย: ไม่มีใครสามารถจินตนาการได้ว่าปัญญาประดิษฐ์ขั้นสูงจะมีความสามารถอะไร? เป็นที่เชื่อกันว่าสมองของเราไม่สามารถคาดเดาได้แม้แต่น้อยว่าจะเกิดอะไรขึ้น
AI สามารถทำอะไรให้เราได้บ้าง?
ด้วยอาวุธที่ชาญฉลาดและเทคโนโลยีทั้งหมดที่ superintelligence สร้างขึ้น ISI อาจจะสามารถแก้ปัญหาทั้งหมดของมนุษยชาติได้ ภาวะโลกร้อน? ISI จะหยุดการปล่อยก๊าซคาร์บอนก่อน โดยคิดค้นวิธีที่มีประสิทธิภาพในการผลิตพลังงานที่ไม่เกี่ยวข้องกับเชื้อเพลิงฟอสซิล จากนั้นเขาก็จะคิดหาวิธีที่มีประสิทธิภาพและเป็นนวัตกรรมใหม่ในการกำจัด CO2 ส่วนเกินออกจากชั้นบรรยากาศ มะเร็งและโรคอื่นๆ? ไม่ใช่ปัญหา - การดูแลสุขภาพและการแพทย์จะเปลี่ยนไปในทางที่เหนือจินตนาการ ความหิวโหยของโลก? ISI จะใช้นาโนเทคโนโลยีเพื่อสร้างเนื้อที่เหมือนธรรมชาติตั้งแต่เริ่มต้น เนื้อแท้
นาโนเทคโนโลยีจะสามารถเปลี่ยนกองขยะให้กลายเป็นถังใส่เนื้อสัตว์สดหรืออาหารอื่นๆ (ไม่จำเป็นต้องอยู่ในรูปแบบปกติ ลองนึกภาพแอปเปิ้ลก้อนยักษ์) และแจกจ่ายอาหารทั้งหมดนี้ไปทั่วโลกโดยใช้ระบบขนส่งขั้นสูง แน่นอนว่าสิ่งนี้จะดีสำหรับสัตว์ที่ไม่ต้องตายเพื่อเป็นอาหารอีกต่อไป ISI ยังทำสิ่งอื่นได้อีกมากมาย เช่น การอนุรักษ์สัตว์ใกล้สูญพันธุ์ หรือแม้แต่นำสิ่งมีชีวิตที่สูญพันธุ์ไปแล้วกลับคืนมาจาก DNA ที่เก็บไว้ ISI สามารถแก้ปัญหาเศรษฐกิจมหภาคที่ยากที่สุดของเราได้ - การอภิปรายทางเศรษฐกิจที่ยากที่สุดของเรา ประเด็นด้านจริยธรรมและปรัชญา การค้าโลก - ทั้งหมดนี้จะทำให้ ISI รู้สึกเจ็บปวด
แต่มีบางสิ่งที่พิเศษมากที่ ISI สามารถทำได้สำหรับเรา เย้ายวนและยั่วเย้าที่จะเปลี่ยนแปลงทุกสิ่ง: ISI สามารถช่วยเรารับมือกับความตายได้ … ค่อยๆ เข้าใจความสามารถของ AI บางทีคุณอาจจะทบทวนความคิดทั้งหมดของคุณเกี่ยวกับความตายอีกครั้ง
ไม่มีเหตุผลใดที่วิวัฒนาการจะยืดอายุขัยของเราได้นานกว่าที่เป็นอยู่ตอนนี้ หากเราอยู่ได้นานพอที่จะคลอดบุตรและเลี้ยงดูบุตรจนถึงจุดที่พวกเขาสามารถดูแลตัวเองได้ วิวัฒนาการก็เพียงพอแล้ว จากมุมมองของวิวัฒนาการ 30+ ปีก็เพียงพอแล้วสำหรับการพัฒนา และไม่มีเหตุผลใดที่การกลายพันธุ์จะยืดอายุและลดคุณค่าของการคัดเลือกโดยธรรมชาติ วิลเลียม บัตเลอร์ เยตส์เรียกเผ่าพันธุ์ของเราว่า "วิญญาณที่ติดอยู่กับสัตว์ที่กำลังจะตาย" ไม่ค่อยสนุกเท่าไหร่
และเนื่องจากเราทุกคนต้องตายในสักวันหนึ่ง เราจึงดำเนินชีวิตด้วยแนวคิดที่ว่าความตายเป็นสิ่งที่หลีกเลี่ยงไม่ได้ เราคิดถึงความชราเมื่อเวลาผ่านไป - เดินหน้าต่อไปและไม่สามารถหยุดกระบวนการนี้ได้ แต่ความคิดเรื่องความตายนั้นทรยศ: ถูกจับโดยมัน เราลืมที่จะมีชีวิตอยู่ Richard Feynman เขียนว่า:
“มีสิ่งมหัศจรรย์ในทางชีววิทยา: วิทยาศาสตร์นี้ไม่มีสิ่งใดที่พูดถึงความจำเป็นของความตาย หากเราต้องการสร้างเครื่องเคลื่อนไหวตลอดเวลา เราตระหนักดีว่าเราพบกฎฟิสิกส์เพียงพอแล้วที่บ่งชี้ถึงความเป็นไปไม่ได้ของสิ่งนี้ หรือกฎหมายนั้นผิด แต่ไม่มีสิ่งใดในทางชีววิทยาที่จะบ่งบอกถึงความตายที่หลีกเลี่ยงไม่ได้ สิ่งนี้ทำให้ฉันเชื่อว่ามันเป็นสิ่งที่หลีกเลี่ยงไม่ได้ และเป็นเพียงเรื่องของเวลาก่อนที่นักชีววิทยาจะค้นพบสาเหตุของปัญหานี้ ซึ่งเป็นโรคร้ายแรงสากลนี้ มันจะหายขาด"
ความจริงก็คือการแก่ชราไม่ได้เกี่ยวข้องกับเวลาความชราคือเมื่อวัสดุทางกายภาพของร่างกายเสื่อมสภาพ ชิ้นส่วนรถยนต์ยังเสื่อมโทรม - แต่การแก่ชราอย่างหลีกเลี่ยงไม่ได้หรือไม่? หากคุณซ่อมรถเพราะชิ้นส่วนสึกหรอ มันจะคงอยู่ตลอดไป ร่างกายมนุษย์ไม่แตกต่างกัน - เพียงแค่ซับซ้อนมากขึ้น
Kurzweil พูดถึงนาโนบ็อตอัจฉริยะที่เชื่อมต่อ Wi-Fi ในกระแสเลือดที่สามารถทำงานได้นับไม่ถ้วนเพื่อสุขภาพของมนุษย์ รวมถึงการซ่อมหรือเปลี่ยนเซลล์ที่เสื่อมสภาพเป็นประจำทุกที่ในร่างกาย การปรับปรุงกระบวนการนี้ (หรือหาทางเลือกอื่นที่แนะนำโดย ASI ที่ชาญฉลาด) ไม่เพียงแต่ทำให้ร่างกายแข็งแรงเท่านั้น แต่ยังสามารถย้อนวัยได้อีกด้วย ความแตกต่างระหว่างร่างกายของคนอายุ 60 ปี และคนอายุ 30 ปี เป็นปัญหาทางกายภาพจำนวนหนึ่งที่สามารถแก้ไขได้ด้วยเทคโนโลยีที่เหมาะสม ISI สามารถสร้างรถที่คนเข้าได้เมื่ออายุ 60 ปี และออกเมื่ออายุ 30 ปี
แม้แต่สมองที่เสื่อมโทรมก็สามารถสร้างใหม่ได้ ISI ย่อมรู้วิธีการทำสิ่งนี้อย่างแน่นอนโดยไม่กระทบต่อข้อมูลสมอง (บุคลิกภาพ ความทรงจำ ฯลฯ) ชายวัย 90 ปีที่ทุกข์ทรมานจากภาวะสมองเสื่อมอย่างสมบูรณ์อาจได้รับการฝึกฝน ต่ออายุ และกลับสู่จุดเริ่มต้นของชีวิต อาจดูไร้สาระ แต่ร่างกายเป็นอะตอมจำนวนหนึ่ง และ ISI สามารถจัดการกับโครงสร้างอะตอมได้อย่างง่ายดายอย่างแน่นอน มันไม่ได้ไร้สาระขนาดนั้น
Kurzweil ยังเชื่อด้วยว่าวัสดุเทียมจะรวมเข้ากับร่างกายมากขึ้นเรื่อยๆ เมื่อเวลาผ่านไป สำหรับการเริ่มต้น อวัยวะสามารถถูกแทนที่ด้วยเครื่องจักรขั้นสูงสุดที่จะคงอยู่ตลอดไปและไม่มีวันล้มเหลว จากนั้นเราก็สามารถออกแบบร่างกายใหม่ทั้งหมดได้ โดยแทนที่เซลล์เม็ดเลือดแดงด้วยนาโนบอทที่สมบูรณ์แบบที่เคลื่อนไหวได้ด้วยตัวเอง โดยไม่จำเป็นต้องใช้หัวใจทั้งหมด นอกจากนี้เรายังสามารถปรับปรุงความสามารถทางปัญญาของเรา เริ่มคิดเร็วขึ้นหลายพันล้านเท่า และเข้าถึงข้อมูลทั้งหมดที่มีให้สำหรับมนุษยชาติผ่านระบบคลาวด์
ความเป็นไปได้ในการทำความเข้าใจขอบเขตอันไกลโพ้นใหม่จะไม่มีที่สิ้นสุดอย่างแท้จริง ผู้คนพยายามสร้างเซ็กส์ด้วยจุดประสงค์ใหม่ พวกเขาทำเพื่อความสุข ไม่ใช่แค่เพื่อการสืบพันธุ์ Kurzweil เชื่อว่าเราสามารถทำเช่นเดียวกันกับอาหารได้ นาโนบอทสามารถส่งสารอาหารในอุดมคติไปยังเซลล์ของร่างกายได้โดยตรง ทำให้สารที่ไม่ดีต่อสุขภาพสามารถผ่านเข้าสู่ร่างกายได้ นักทฤษฎีนาโนเทคโนโลยี Robert Freitas ได้พัฒนาเซลล์เม็ดเลือดทดแทน ซึ่งเมื่อนำมาใช้ในร่างกายมนุษย์ จะทำให้เขาไม่หายใจเป็นเวลา 15 นาที และสิ่งนี้ถูกประดิษฐ์ขึ้นโดยบุคคล ลองนึกภาพเมื่อ ISI จะได้รับอำนาจ
ท้ายที่สุด Kurzweil เชื่อว่ามนุษย์จะถึงจุดที่พวกเขากลายเป็นของปลอมอย่างสมบูรณ์ เวลาที่เราดูวัสดุชีวภาพและคิดว่าเป็นวัสดุดั้งเดิมแค่ไหน เวลาที่เราจะอ่านเกี่ยวกับช่วงแรกๆ ของประวัติศาสตร์มนุษย์ ประหลาดใจว่าเชื้อโรค อุบัติเหตุ โรคภัยไข้เจ็บ หรือเพียงแค่ความชราภาพสามารถฆ่าคนโดยไม่ได้เจตนาได้อย่างไร ในที่สุด มนุษย์จะเอาชนะชีววิทยาของตนเองและกลายเป็นนิรันดร์ - นี่คือเส้นทางสู่ด้านความสุขของคานทรงตัวที่เรากำลังพูดถึงตั้งแต่ต้น และคนที่เชื่อในสิ่งนี้ก็มั่นใจว่าอนาคตเช่นนี้รอเราอยู่ในไม่ช้า
คุณจะไม่แปลกใจเลยที่ความคิดของ Kurzweil ได้รับการวิพากษ์วิจารณ์อย่างรุนแรง ภาวะเอกฐานในปี 2045 และชีวิตนิรันดร์ที่ตามมาของผู้คนถูกเรียกว่า "การเสด็จขึ้นสู่สวรรค์ของคนเนิร์ด" หรือ "การสร้างสรรค์คนที่มีไอคิว 140" คนอื่นๆ ตั้งคำถามเกี่ยวกับกรอบเวลาที่มองโลกในแง่ดี ความเข้าใจในร่างกายมนุษย์และสมอง ทำให้นึกถึงกฎของมัวร์ซึ่งยังไม่หมดไป สำหรับผู้เชี่ยวชาญทุกคนที่เชื่อในความคิดของ Kurzweil มีสามคนที่คิดว่าเขาคิดผิด
แต่สิ่งที่น่าสนใจที่สุดเกี่ยวกับเรื่องนี้ก็คือผู้เชี่ยวชาญส่วนใหญ่ที่ไม่เห็นด้วยกับเขาโดยรวมแล้วไม่ได้บอกว่าสิ่งนี้เป็นไปไม่ได้แทนที่จะพูดว่า "พล่าม สิ่งนี้จะไม่เกิดขึ้น" พวกเขาพูดว่า "ทั้งหมดนี้จะเกิดขึ้นถ้าเราไปถึง ISI แต่นี่เป็นปัญหา" Bostrom หนึ่งในผู้เชี่ยวชาญด้าน AI ที่ได้รับการยกย่องเตือนถึงอันตรายของ AI ยังยอมรับว่า:
“แทบไม่มีปัญหาเหลือที่ความฉลาดหลักแหลมไม่สามารถแก้ไขได้ หรือแม้แต่ช่วยเราแก้ปัญหา โรคภัยไข้เจ็บ ความยากจน การทำลายสิ่งแวดล้อม ความทุกข์ทรมานทุกรูปแบบ - ความฉลาดหลักแหลมทั้งหมดนี้ด้วยความช่วยเหลือจากนาโนเทคโนโลยีสามารถแก้ปัญหาได้ในชั่วพริบตา Superintelligence ยังสามารถทำให้เรามีอายุการใช้งานที่ไม่จำกัด โดยการหยุดและย้อนกลับกระบวนการชราภาพโดยใช้ nanomedicine หรือความสามารถในการอัปโหลดเราไปยังระบบคลาวด์ ซุปเปอร์อินเทลลิเจนซ์ยังสร้างโอกาสในการเพิ่มความสามารถทางปัญญาและอารมณ์อย่างไม่รู้จบ เขาสามารถช่วยเราสร้างโลกที่เราจะอยู่อย่างมีความสุขและเข้าใจ เข้าใกล้อุดมคติของเรา และทำความฝันของเราให้เป็นจริงอยู่เสมอ"
นี่เป็นคำพูดจากนักวิจารณ์คนหนึ่งของ Kurzweil ซึ่งยอมรับว่าทั้งหมดนี้เป็นไปได้หากเราสามารถสร้าง ASI ที่ปลอดภัยได้ Kurzweil ให้คำจำกัดความง่ายๆ ว่าปัญญาประดิษฐ์ขั้นสูงควรเป็นอย่างไร หากเป็นไปได้ และถ้าเขาเป็นพระเจ้าที่ดี
คำวิจารณ์ที่ชัดเจนที่สุดของผู้สนับสนุนเขตสบายคือพวกเขาสามารถถูกสาปแช่งได้เมื่อพวกเขาประเมินอนาคตของ ISI ในหนังสือของเขา The Singularity เคิร์ซไวล์ได้อุทิศ 20 หน้าจาก 700 ภัยคุกคามของ ISI ที่อาจเกิดขึ้น คำถามไม่ใช่เมื่อเราไปถึง ISI คำถามคือสิ่งที่จะเป็นแรงจูงใจ Kurzweil ตอบคำถามนี้ด้วยความระมัดระวัง: “ISI เกิดจากความพยายามที่แตกต่างกันมากมาย และจะรวมเข้ากับโครงสร้างพื้นฐานของอารยธรรมของเราอย่างลึกซึ้ง อันที่จริงมันจะถูกฝังอย่างใกล้ชิดในร่างกายและสมองของเรา เขาจะสะท้อนค่านิยมของเราเพราะเขาจะเป็นหนึ่งเดียวกับเรา"
แต่ถ้าคำตอบคือ ทำไมคนฉลาดมากมายในโลกนี้ถึงกังวลเกี่ยวกับอนาคตของปัญญาประดิษฐ์? ทำไม Stephen Hawking ถึงบอกว่าการพัฒนา ISI "อาจหมายถึงจุดจบของเผ่าพันธุ์มนุษย์"? Bill Gates กล่าวว่าเขา "ไม่เข้าใจคนที่ไม่ใส่ใจ" เกี่ยวกับเรื่องนี้ Elon Musk กลัวว่าเรากำลัง "อัญเชิญปีศาจ" เหตุใดผู้เชี่ยวชาญหลายคนจึงถือว่า ISI เป็นภัยคุกคามต่อมนุษยชาติมากที่สุด
เราจะพูดถึงเรื่องนี้ในครั้งต่อไป