#AGI #AI #ปัญญาประดิษฐ์ #หุ่นยนต์
สวัสดีครับเพื่อนๆ เป้าหมายที่เป็นความฝันสูงสุดของนักวิจัย หรือนักวิทยาศาตร์ AI ก็คือการสร้าง “หุ่นยนต์” ให้มีความ “ฉลาด” เช่นเดียวกับมนุษย์ สามารถคิดเอง แก้ปัญหาต่างๆ ได้ ไม่จำเป็นต้องให้มนุษย์สอนหรือระบุขั้นตอนทำงานอย่างละเอียดในทุกๆ เรื่อง
จริงๆ แล้วการสร้างหุ่นยนต์ที่ฉลาดเหมือนกับมนุษย์อาจมีประเด็นที่เป็นปัญหา หลายๆ เรื่อง ที่น่าสนใจครับ เช่น ถ้าหุ่นยนต์ฉลาดและมีความคิดเป็นของตนเองจริงๆ แล้ว เป็นไปได้หรือไม่ที่จะตั้งตัวเป็นศัตรูกับมนุษย์ และจะเกิดเหตุการณ์ที่ต้องทำสงครามกันเหมือนในนิยายวิทยาศาสตร์หลายๆ เรื่อง
หลายๆ คนที่เป็นคอนิยาย sci-fi มักจะอ้างถึง “กฏสามข้อของหุ่นยนต์” ของ Isaac Asimov ที่ถูกคิดค้นขึ้นมาเพื่อป้องกันไม่ให้หุ่นยนต์คิดร้ายต่อมนุษย์ (รายละเอียดข้างล่าง) กฏเหล่านี้ใช้ได้จริงหรือไม่ วันนี้เรามาฟังมุมมองของนักวิจัย AI จาก Computerphile กันครับ
กฏของหุ่นยนต์ทั้งสามข้อของ Asimov ใช้ได้จริงหรือไม่?
ในอนาคตจะเกิดอะไรขึ้นถ้าเราสามารถสร้าง Super Intelligence AI ได้สำเร็จ ... มันจะเป็นอันตรายกับมนุษยชาติหรือไม่ หรือว่าเราสามารถใช้กฏสามข้อของ Asimov เพื่อป้องกันไม่ให้หุ่นยนต์เหล่านี้มาทำร้ายมนุษย์ได้
กฎ 3 ข้อของหุ่นยนต์
- หุ่นยนต์มิอาจกระทำการอันตรายต่อผู้ที่เป็นมนุษย์ หรือนิ่งเฉยปล่อยให้ผู้ที่เป็นมนุษย์ตกอยู่ในอันตรายได้ ...
- หุ่นยนต์ต้องเชื่อฟังคำสั่งที่ได้รับจากผู้ที่เป็นมนุษย์ เว้นแต่คำสั่งนั้นๆ ขัดแย้งกับกฎข้อแรก ...
- หุ่นยนต์ต้องปกป้องสถานะความมีตัวตนของตนไว้ ตราบเท่าที่การกระทำนั้นมิได้ขัดแย้งต่อกฎข้อแรกหรือกฎข้อที่สอง
ใน Video นี้ Computerphile กล่าวว่ากฏทั้งสามข้อไม่สามารถใช้ได้จริงในทางปฏิบัติ
ปัญหาของปุ่ม “Stop Button”
ถ้าเรากลัวว่าหุ่นยนต์ที่ฉลาดแบบมนุษย์จะเป็นอันตรายกับเรา เราก็แค่ทำ “ปุ่มหยุดการทำงาน” (Stop Button) ไว้กดเพื่อหยุดหุ่นยนต์ในกรณีที่หุ่นยนต์จะทำอะไรที่ไม่เหมาะสม
แนวคิดง่ายๆ นี้ที่ดูแล้วไม่น่ามีอันตรายอะไร ก็อาจทำให้เกิดปัญหาที่ใหญ่หลวงที่เราไม่คาดคิดขึ้นได้ครับ
ไอเดียนึงที่จะทำให้ AI นั้นเรียนรู้ได้แบบเดียวกับมนุษย์คือ AI ควรจะเรียนรู้ได้ "ตลอดชีวิต" (life-long learning) เหมือนกับพวกเรา ไม่ได้จำกัดอยู่ที่ dataset ใด dataset หนึ่งแต่ต้องเรียนรู้สะสมความรู้เพิ่มเติมเมื่อเจอข้อมูล หรือ dataset ใหม่ๆ และ "ไม่ลืมความรู้เก่าๆ จนหมดสิ้น" (catastrophic forgetting) นอกจากนี้ยังต้อง "ประเมินความน่าเชื่อถือ" (Credit Assignment) ของข้อมูลที่เข้ามาใหม่ได้อีกด้วย ไม่ใช่ว่าใครสอนอะไรก็จะเชื่อไปหมด
ใน ICML 2020 talk นี้อจ. Jurgen Schmidthuber ผู้ผู้บุกเบิกแนวคิดต่างๆ ในวงการ AI มากมาย และเป็นผู้ร่วมให้กำเนิด LSTM จะมาพูดถึงไอเดียในการออกแบบ Life-long learning model นี้ สามารถรับฟังได้ที่นี่ครับผม
Yoshua Bengio @ Knowledge Representation NIPS 2020 Worksh0p
https://slideslive.com/38938121/deep-learning-of-conscious-processing-over-verbalizable-knowledge
Talk with Max Welling: Quantum, Manifolds & Symmetries in ML
AI DEBATE 2
Moving AI Forward: An Interdisciplinary Approach
MONTREAL.AI
ศาสตราจารย์ Joshua Tenenbaum จาก MIT เป็นอีกคนหนึ่งที่ Active ในเรื่อง AGI มากๆ ครับ
https://mitibmwatsonailab.mit.edu/people/joshua-tenenbaum/