ปัญญาประดิษฐ์ที่พัฒนาตนเอง (AI) ในอนาคตสามารถกดขี่หรือฆ่าผู้คนได้หากต้องการ สิ่งนี้ถูกบอกโดยนักวิทยาศาสตร์ Amnon Eden ซึ่งเชื่อว่าความเสี่ยงจากการพัฒนาของจิตสำนึกที่มีอิสระทางความคิดและสติปัญญาสูงนั้นสูงมาก และ "ถ้าคุณไม่ดูแลปัญหาการควบคุม AI อยู่แล้วในขั้นปัจจุบันของ การพัฒนา แล้วพรุ่งนี้ก็อาจไม่มาถึง" ตามฉบับภาษาอังกฤษ Express มนุษยชาติตาม Amnon Eden อยู่ที่ "จุดที่ไม่มีวันหวนกลับ" สำหรับการดำเนินการตามพล็อตเรื่อง "The Terminator" มหากาพย์ภาพยนตร์ที่มีชื่อเสียง
เป็นที่น่าสังเกตว่า ดร. อำนนท์ อีเดน เป็นผู้นำโครงการที่มีเป้าหมายหลักคือการวิเคราะห์ผลกระทบที่อาจเกิดกับ AI นักวิทยาศาสตร์เชื่อว่าหากปราศจากความเข้าใจที่ถูกต้องเกี่ยวกับผลที่ตามมาของการสร้างปัญญาประดิษฐ์ การพัฒนาของปัญญาประดิษฐ์อาจคุกคามด้วยภัยพิบัติ ในปัจจุบัน สังคมของเราไม่ค่อยได้รับแจ้งเกี่ยวกับการอภิปรายที่กำลังเกิดขึ้นในชุมชนวิทยาศาสตร์เกี่ยวกับการวิเคราะห์ผลกระทบที่อาจเกิดขึ้นจาก AI “ในปี 2559 ที่จะถึงนี้ การวิเคราะห์ความเสี่ยงที่เป็นไปได้จะต้องแพร่หลายมากขึ้นในความคิดของบริษัทต่างๆ รัฐบาล นักการเมือง และผู้รับผิดชอบในการตัดสินใจ” Eden กล่าว
นักวิทยาศาสตร์มั่นใจว่านิยายวิทยาศาสตร์ซึ่งอธิบายการทำลายล้างของมนุษยชาติโดยหุ่นยนต์ ในไม่ช้าจะกลายเป็นปัญหาทั่วไปของเรา เนื่องจากกระบวนการสร้าง AI นั้นไม่สามารถควบคุมได้ ตัวอย่างเช่น Elon Musk ซึ่งได้รับการสนับสนุนจากผู้ประกอบการ Sam Altman ตัดสินใจสร้างองค์กรไม่แสวงหากำไรมูลค่า 1 พันล้านดอลลาร์ใหม่ที่พัฒนา AI แบบโอเพ่นซอร์สที่น่าจะเหนือกว่าความคิดของมนุษย์ ในเวลาเดียวกัน มหาเศรษฐีชาวอเมริกัน Elon Musk เองก็จัดอันดับปัญญาประดิษฐ์ให้เป็นหนึ่งใน "ภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ของเรา" Steve Wozniak ผู้ร่วมก่อตั้ง Apple กล่าวเมื่อเดือนมีนาคมที่ผ่านมาว่า "อนาคตดูน่ากลัวและอันตรายมากสำหรับผู้คน … ในที่สุดวันที่คอมพิวเตอร์จะคิดเร็วกว่าที่เราทำและพวกเขาจะกำจัดคนที่ทำงานช้าเพื่อที่จะ เพื่อให้บริษัทสามารถทำงานได้อย่างมีประสิทธิภาพมากขึ้น"
เป็นที่น่าสังเกตว่านักวิทยาศาสตร์หลายคนมองเห็นภัยคุกคามจาก AI นักวิทยาศาสตร์ นักลงทุน และผู้ประกอบการที่มีชื่อเสียงหลายสิบคน ซึ่งมีกิจกรรมที่เกี่ยวข้องกับการพัฒนาปัญญาประดิษฐ์ไม่ทางใดก็ทางหนึ่ง ได้ลงนามในจดหมายเปิดผนึกเรียกร้องความสนใจมากขึ้นในประเด็นด้านความปลอดภัยและประโยชน์ใช้สอยทางสังคมในการทำงานใน สาขา AI นักดาราศาสตร์ฟิสิกส์ Stephen Hawking และผู้ก่อตั้ง Tesla และ SpaceX Elon Musk เป็นหนึ่งในผู้ลงนามในเอกสารนี้ จดหมายพร้อมกับเอกสารประกอบซึ่งร่างโดย Future of Life Institute (FLI) ถูกเขียนขึ้นท่ามกลางความกังวลที่เพิ่มขึ้นเกี่ยวกับผลกระทบของปัญญาประดิษฐ์ที่มีต่อตลาดแรงงานและแม้กระทั่งความอยู่รอดในระยะยาวของมนุษยชาติใน สภาพแวดล้อมที่ความสามารถของหุ่นยนต์และเครื่องจักรจะเติบโตอย่างควบคุมไม่ได้
นักวิทยาศาสตร์เข้าใจถึงความจริงที่ว่าศักยภาพของ AI ในปัจจุบันนั้นมีขนาดใหญ่มาก ดังนั้นจึงจำเป็นต้องตรวจสอบความเป็นไปได้ของการใช้งานที่เหมาะสมที่สุดสำหรับเราอย่างเต็มที่ เพื่อหลีกเลี่ยงหลุมพรางที่ตามมา จดหมายจาก FLI กล่าว จำเป็นอย่างยิ่งที่ระบบ AI ที่มนุษย์สร้างขึ้นจะต้องทำในสิ่งที่เราต้องการอย่างแท้จริงเป็นที่น่าสังเกตว่าสถาบัน Future of Life ก่อตั้งขึ้นเมื่อปีที่แล้วโดยผู้สนใจจำนวนหนึ่งเท่านั้น โดยในจำนวนนั้นคือ Jaan Tallinn ผู้สร้าง Skype เพื่อ "ลดความเสี่ยงที่มนุษยชาติกำลังเผชิญอยู่" และกระตุ้นการวิจัยด้วย "วิสัยทัศน์ในแง่ดี แห่งอนาคต” ก่อนอื่น เรากำลังพูดถึงความเสี่ยงที่เกิดจากการพัฒนา AI และหุ่นยนต์ คณะกรรมการที่ปรึกษาของ FLI ประกอบด้วย Musk และ Hawking พร้อมด้วยนักแสดงชื่อดังอย่าง Morgan Freeman และบุคคลที่มีชื่อเสียงอื่นๆ จากข้อมูลของ Elon Musk การพัฒนาปัญญาประดิษฐ์ที่ไม่สามารถควบคุมได้นั้นอาจมีอันตรายมากกว่าอาวุธนิวเคลียร์
นักดาราศาสตร์ฟิสิกส์ชาวอังกฤษชื่อดัง Stephen Hawking เมื่อสิ้นปี 2558 พยายามอธิบายการปฏิเสธเทคโนโลยี AI ของเขา ในความเห็นของเขา เมื่อเวลาผ่านไป เครื่องจักรที่ชาญฉลาดจะมองผู้คนเป็นวัสดุสิ้นเปลืองหรือมดที่รบกวนการแก้ปัญหาของงานของพวกเขา จากการพูดคุยกับผู้ใช้พอร์ทัล Reddit สตีเฟน ฮอว์คิงกล่าวว่าเขาไม่เชื่อว่าเครื่องจักรที่ชาญฉลาดดังกล่าวจะเป็น "สัตว์ร้าย" ที่ต้องการทำลายมนุษยชาติทั้งหมดเนื่องจากความเหนือกว่าทางปัญญาของพวกเขา เป็นไปได้มากที่จะพูดคุยเกี่ยวกับความจริงที่ว่าพวกเขาจะไม่สังเกตเห็นมนุษยชาติ
“เมื่อเร็ว ๆ นี้สื่อบิดเบือนคำพูดของฉันอย่างต่อเนื่อง ความเสี่ยงหลักในการพัฒนา AI ไม่ใช่ความมุ่งร้ายของเครื่องจักร แต่เป็นความสามารถ ปัญญาประดิษฐ์ที่สุดยอดจะทำงานได้ดี แต่ถ้ามันและเป้าหมายของเราไม่ตรงกัน มนุษยชาติจะมีปัญหาร้ายแรงมาก” นักวิทยาศาสตร์ที่มีชื่อเสียงอธิบาย ตัวอย่างเช่น ฮอว์คิงอ้างถึงสถานการณ์สมมุติที่ AI ที่มีพลังมหาศาลมีหน้าที่รับผิดชอบในการดำเนินการหรือสร้างเขื่อนไฟฟ้าพลังน้ำแห่งใหม่ สำหรับเครื่องจักรดังกล่าว ลำดับความสำคัญจะอยู่ที่ปริมาณพลังงานที่ระบบได้รับมอบหมาย และชะตากรรมของผู้คนจะไม่สำคัญ “มีพวกเราไม่กี่คนที่เหยียบย่ำมดและเหยียบมดด้วยความโกรธ แต่ลองนึกภาพสถานการณ์กัน - คุณควบคุมสถานีไฟฟ้าพลังน้ำอันทรงพลังซึ่งผลิตกระแสไฟฟ้าได้ หากคุณต้องการเพิ่มระดับน้ำและเป็นผลจากการกระทำของคุณ จอมปลวกตัวหนึ่งจะถูกน้ำท่วม ปัญหาแมลงจมน้ำไม่น่าจะรบกวนคุณ อย่าเอาคนมาแทนที่มด” นักวิทยาศาสตร์กล่าว
ปัญหาที่อาจเกิดขึ้นประการที่สองสำหรับการพัฒนาปัญญาประดิษฐ์ต่อไปตาม Hawking อาจเป็น "การปกครองแบบเผด็จการของเจ้าของเครื่องจักร" - การเติบโตอย่างรวดเร็วของช่องว่างในระดับรายได้ระหว่างคนรวยที่จะสามารถผูกขาดการผลิต ของเครื่องจักรอัจฉริยะ และประชากรส่วนที่เหลือของโลก สตีเฟน ฮอว์คิงเสนอให้แก้ปัญหาที่เป็นไปได้เหล่านี้ด้วยวิธีต่อไปนี้ - เพื่อชะลอกระบวนการพัฒนา AI และเปลี่ยนไปใช้การพัฒนาที่ไม่ใช่ "สากล" แต่เป็นปัญญาประดิษฐ์ที่เชี่ยวชาญเป็นพิเศษ ซึ่งสามารถแก้ปัญหาได้เฉพาะช่วงที่จำกัดมาก
นอกจาก Hawking และ Musk แล้ว จดหมายดังกล่าวยังได้ลงนามโดยผู้ได้รับรางวัลโนเบลและศาสตราจารย์ Frank Wilczek ฟิสิกส์ของ MIT กรรมการบริหารของ Machine Intelligence Research Institute (MIRI) Luc Mühlhauser รวมถึงผู้เชี่ยวชาญจากบริษัทไอทีขนาดใหญ่มากมาย เช่น Google, Microsoft และ IBM รวมถึงผู้ประกอบการที่ก่อตั้งบริษัท AI Vicarious และ DeepMind ผู้เขียนจดหมายระบุว่าพวกเขาไม่ได้มีจุดมุ่งหมายเพื่อทำให้สาธารณชนหวาดกลัว แต่วางแผนที่จะเน้นทั้งด้านบวกและด้านลบที่เกี่ยวข้องกับการสร้างปัญญาประดิษฐ์ “ในปัจจุบันนี้ ทุกคนต่างเห็นพ้องกันว่าการวิจัยด้าน AI มีความก้าวหน้าอย่างต่อเนื่อง และอิทธิพลของ AI ที่มีต่อสังคมมนุษย์สมัยใหม่จะเพิ่มขึ้นเท่านั้น” จดหมายกล่าว “โอกาสที่เปิดกว้างสำหรับมนุษย์นั้นมหาศาล ทุกสิ่งที่อารยธรรมสมัยใหม่ ได้ถูกสร้างขึ้นโดยปัญญา คน.เราไม่สามารถคาดเดาสิ่งที่เราจะสามารถบรรลุได้หากปัญญาของมนุษย์สามารถคูณด้วย AI ได้ แต่ปัญหาในการกำจัดความยากจนและโรคภัยนั้นไม่ยากอย่างไม่สิ้นสุดอีกต่อไป”
พัฒนาการมากมายในด้านปัญญาประดิษฐ์ได้รวมอยู่ในชีวิตสมัยใหม่แล้ว ซึ่งรวมถึงระบบจดจำภาพและคำพูด ยานยนต์ไร้คนขับ และอื่นๆ อีกมากมาย ผู้สังเกตการณ์ของ Silicon Valley ประมาณการว่าขณะนี้มีการเริ่มต้นใช้งานมากกว่า 150 รายการในพื้นที่นี้ ในขณะเดียวกัน การพัฒนาในด้านนี้ดึงดูดการลงทุนมากขึ้นเรื่อยๆ และบริษัทต่างๆ เช่น Google ก็กำลังพัฒนาโครงการของตนโดยใช้ AI มากขึ้นเรื่อยๆ ดังนั้นผู้เขียนจดหมายจึงเชื่อว่าถึงเวลาที่จะต้องให้ความสนใจเพิ่มขึ้นกับผลที่เป็นไปได้ทั้งหมดของการเฟื่องฟูที่สังเกตได้สำหรับแง่มุมทางเศรษฐกิจสังคมและกฎหมายของชีวิตมนุษย์
ตำแหน่งที่ปัญญาประดิษฐ์สามารถก่อให้เกิดอันตรายต่อมนุษย์ได้มีร่วมกันโดย Nick Bostrom ศาสตราจารย์แห่งมหาวิทยาลัยอ็อกซ์ฟอร์ดซึ่งเป็นที่รู้จักจากผลงานของเขาเกี่ยวกับหลักการมานุษยวิทยา ผู้เชี่ยวชาญคนนี้เชื่อว่า AI มาถึงจุดที่จะตามมาด้วยความเข้ากันไม่ได้กับมนุษย์ Nick Bostrom เน้นว่าไม่เหมือนกับพันธุวิศวกรรมและการเปลี่ยนแปลงสภาพภูมิอากาศ ซึ่งรัฐบาลจัดสรรเงินทุนให้เพียงพอในการควบคุม "ไม่มีการดำเนินการใดๆ เพื่อควบคุมวิวัฒนาการของ AI" ศาสตราจารย์กล่าวว่า "นโยบายของสุญญากาศทางกฎหมายที่ต้องเติมเต็ม" กำลังถูกดำเนินการเกี่ยวกับปัญญาประดิษฐ์ แม้แต่เทคโนโลยีอย่างเช่น รถยนต์ไร้คนขับ ซึ่งดูไม่เป็นอันตรายและมีประโยชน์ ก็ทำให้เกิดคำถามขึ้นมากมาย ตัวอย่างเช่น รถยนต์ดังกล่าวควรต้องเบรกฉุกเฉินเพื่อช่วยผู้โดยสารและใครจะรับผิดชอบในกรณีที่เกิดอุบัติเหตุโดยยานพาหนะไร้คนขับ?
เมื่อพูดถึงความเสี่ยงที่อาจเกิดขึ้น Nick Bostrom ตั้งข้อสังเกตว่า "คอมพิวเตอร์ไม่สามารถระบุประโยชน์และอันตรายต่อมนุษย์ได้" และ "ไม่มีความคิดเกี่ยวกับศีลธรรมของมนุษย์แม้แต่น้อย" นอกจากนี้ วงจรการพัฒนาตนเองในคอมพิวเตอร์สามารถเกิดขึ้นได้ด้วยความเร็วที่บุคคลไม่สามารถติดตามได้ และแทบไม่มีอะไรสามารถทำได้เกี่ยวกับเรื่องนี้เช่นกัน นักวิทยาศาสตร์กล่าว “ในขั้นตอนของการพัฒนาที่คอมพิวเตอร์สามารถคิดเองได้ ไม่มีใครสามารถคาดเดาได้อย่างแน่นอนว่าสิ่งนี้จะนำไปสู่ความโกลาหลหรือทำให้โลกของเราดีขึ้นอย่างมีนัยสำคัญ” นิค บอสตรอม กล่าว โดยยกตัวอย่างวิธีแก้ปัญหาง่ายๆ ที่เป็นไปได้สำหรับคอมพิวเตอร์ - การปิดตัวลง ในประเทศที่มีสภาพอากาศหนาวเย็นเพื่อปรับปรุงสุขภาพของผู้คนและเพิ่มความอดทนซึ่ง "สามารถมาถึงหัวหน้าของปัญญาประดิษฐ์ได้"
นอกจากนี้ Bostrom ยังยกปัญหาการบิ่นของสมองมนุษย์เพื่อเพิ่มความฉลาดทางชีวภาพของเรา “ในหลาย ๆ ด้าน ขั้นตอนดังกล่าวจะมีประโยชน์หากกระบวนการทั้งหมดถูกควบคุม แต่จะเกิดอะไรขึ้นหากชิปที่ฝังสามารถตั้งโปรแกรมใหม่ได้เอง สิ่งนี้สามารถนำไปสู่ผลลัพธ์อะไร - การเกิดขึ้นของซูเปอร์แมนหรือการเกิดขึ้นของคอมพิวเตอร์ที่จะดูเหมือนมนุษย์เท่านั้น " - อาจารย์ถาม วิธีที่คอมพิวเตอร์แก้ปัญหาของมนุษย์นั้นแตกต่างจากของเราอย่างมาก ตัวอย่างเช่น ในหมากรุก สมองของมนุษย์จะพิจารณาเฉพาะการเคลื่อนไหวแบบแคบๆ โดยเลือกตัวเลือกที่ดีที่สุดจากการเคลื่อนไหวเหล่านั้น ในทางกลับกัน คอมพิวเตอร์จะพิจารณาการเคลื่อนไหวที่เป็นไปได้ทั้งหมด โดยเลือกสิ่งที่ดีที่สุด ในเวลาเดียวกัน คอมพิวเตอร์ไม่ได้คาดหวังว่าจะทำให้ฝ่ายตรงข้ามไม่พอใจหรือแปลกใจในเกม การเล่นหมากรุกต่างจากมนุษย์ คอมพิวเตอร์สามารถทำการเคลื่อนไหวที่ฉลาดแกมโกงและบอบบางได้โดยบังเอิญเท่านั้น ปัญญาประดิษฐ์สามารถคำนวณได้ดีที่สุด - เพื่อขจัดข้อผิดพลาดออกจากระบบใด ๆ โดยการขจัด "ปัจจัยมนุษย์" ออกจากที่นั่น แต่หุ่นยนต์ไม่พร้อมที่จะทำภารกิจที่จะช่วยชีวิตผู้คนได้
เหนือสิ่งอื่นใด จำนวนเครื่องอัจฉริยะที่เพิ่มขึ้นแสดงถึงขั้นตอนของการปฏิวัติอุตสาหกรรมครั้งใหม่ ในทางกลับกัน นี่หมายความว่าในอนาคตอันใกล้นี้ มนุษยชาติจะเผชิญกับการเปลี่ยนแปลงทางสังคมที่หลีกเลี่ยงไม่ได้ เมื่อเวลาผ่านไป งานจะกลายเป็นผู้เชี่ยวชาญที่มีคุณสมบัติสูงจำนวนมาก เนื่องจากงานง่ายๆ เกือบทั้งหมดสามารถทำได้โดยหุ่นยนต์และกลไกอื่นๆ นักวิทยาศาสตร์เชื่อว่าปัญญาประดิษฐ์ "ต้องการตาและตา" เพื่อที่โลกของเราจะไม่กลายเป็นดาวเคราะห์การ์ตูน "Zhelezyaka" ซึ่งเป็นที่อยู่อาศัยของหุ่นยนต์
ในแง่ของกระบวนการผลิตแบบอัตโนมัติมากขึ้นเรื่อย ๆ อนาคตก็มาถึงแล้ว ฟอรัมเศรษฐกิจโลก (WEF) นำเสนอรายงาน โดยระบบอัตโนมัติจะนำไปสู่ความจริงที่ว่าภายในปี 2020 ผู้คนมากกว่า 5 ล้านคนที่ทำงานในสาขาต่างๆ จะตกงาน นี่คือผลกระทบของหุ่นยนต์และระบบหุ่นยนต์ต่อชีวิตของเรา ในการรวบรวมรายงาน พนักงานของ WEF ใช้ข้อมูลเกี่ยวกับพนักงาน 13.5 ล้านคนจากทั่วโลก ตามที่พวกเขากล่าวไว้ ภายในปี 2020 ความต้องการโดยรวมของงานมากกว่า 7 ล้านตำแหน่งจะหายไป ในขณะที่การเติบโตของการจ้างงานในอุตสาหกรรมอื่นๆ ที่คาดว่าจะมีจำนวนมากกว่า 2 ล้านตำแหน่ง