คุยเฟื่องเรื่อง AGI (Artificial General Intelligence)  

  RSS
The Neural Engineer
(@neural-engineer)
Boltzmann Machine

#AGI #AI #ปัญญาประดิษฐ์ #หุ่นยนต์

สวัสดีครับเพื่อนๆ เป้าหมายที่เป็นความฝันสูงสุดของนักวิจัย หรือนักวิทยาศาตร์ AI ก็คือการสร้าง “หุ่นยนต์” ให้มีความ “ฉลาด” เช่นเดียวกับมนุษย์ สามารถคิดเอง แก้ปัญหาต่างๆ ได้ ไม่จำเป็นต้องให้มนุษย์สอนหรือระบุขั้นตอนทำงานอย่างละเอียดในทุกๆ เรื่อง

จริงๆ แล้วการสร้างหุ่นยนต์ที่ฉลาดเหมือนกับมนุษย์อาจมีประเด็นที่เป็นปัญหา หลายๆ เรื่อง ที่น่าสนใจครับ เช่น ถ้าหุ่นยนต์ฉลาดและมีความคิดเป็นของตนเองจริงๆ แล้ว เป็นไปได้หรือไม่ที่จะตั้งตัวเป็นศัตรูกับมนุษย์ และจะเกิดเหตุการณ์ที่ต้องทำสงครามกันเหมือนในนิยายวิทยาศาสตร์หลายๆ เรื่อง

หลายๆ คนที่เป็นคอนิยาย sci-fi มักจะอ้างถึง “กฏสามข้อของหุ่นยนต์” ของ Isaac Asimov ที่ถูกคิดค้นขึ้นมาเพื่อป้องกันไม่ให้หุ่นยนต์คิดร้ายต่อมนุษย์ (รายละเอียดข้างล่าง)  กฏเหล่านี้ใช้ได้จริงหรือไม่ วันนี้เรามาฟังมุมมองของนักวิจัย AI จาก Computerphile กันครับ

กฏของหุ่นยนต์ทั้งสามข้อของ Asimov ใช้ได้จริงหรือไม่?

ในอนาคตจะเกิดอะไรขึ้นถ้าเราสามารถสร้าง Super Intelligence AI ได้สำเร็จ ... มันจะเป็นอันตรายกับมนุษยชาติหรือไม่ หรือว่าเราสามารถใช้กฏสามข้อของ Asimov เพื่อป้องกันไม่ให้หุ่นยนต์เหล่านี้มาทำร้ายมนุษย์ได้

กฎ 3 ข้อของหุ่นยนต์
  • หุ่นยนต์มิอาจกระทำการอันตรายต่อผู้ที่เป็นมนุษย์ หรือนิ่งเฉยปล่อยให้ผู้ที่เป็นมนุษย์ตกอยู่ในอันตรายได้ ...
  • หุ่นยนต์ต้องเชื่อฟังคำสั่งที่ได้รับจากผู้ที่เป็นมนุษย์ เว้นแต่คำสั่งนั้นๆ ขัดแย้งกับกฎข้อแรก ...
  • หุ่นยนต์ต้องปกป้องสถานะความมีตัวตนของตนไว้ ตราบเท่าที่การกระทำนั้นมิได้ขัดแย้งต่อกฎข้อแรกหรือกฎข้อที่สอง

อ้างอิงวิกิพีเดีย

ใน Video นี้ Computerphile กล่าวว่ากฏทั้งสามข้อไม่สามารถใช้ได้จริงในทางปฏิบัติ

อ้างอิง
Posted : 28/05/2019 8:51 am
The Neural Engineer
(@neural-engineer)
Boltzmann Machine

ปัญหาของปุ่ม “Stop Button”

ถ้าเรากลัวว่าหุ่นยนต์ที่ฉลาดแบบมนุษย์จะเป็นอันตรายกับเรา เราก็แค่ทำ “ปุ่มหยุดการทำงาน” (Stop Button) ไว้กดเพื่อหยุดหุ่นยนต์ในกรณีที่หุ่นยนต์จะทำอะไรที่ไม่เหมาะสม 

แนวคิดง่ายๆ นี้ที่ดูแล้วไม่น่ามีอันตรายอะไร ก็อาจทำให้เกิดปัญหาที่ใหญ่หลวงที่เราไม่คาดคิดขึ้นได้ครับ

ตอบกลับอ้างอิง
Posted : 30/05/2019 3:52 am
The Neural Engineer
(@neural-engineer)
Boltzmann Machine

ไอเดียนึงที่จะทำให้ AI นั้นเรียนรู้ได้แบบเดียวกับมนุษย์คือ  AI ควรจะเรียนรู้ได้ "ตลอดชีวิต" (life-long learning) เหมือนกับพวกเรา  ไม่ได้จำกัดอยู่ที่ dataset ใด dataset หนึ่งแต่ต้องเรียนรู้สะสมความรู้เพิ่มเติมเมื่อเจอข้อมูล หรือ dataset ใหม่ๆ และ "ไม่ลืมความรู้เก่าๆ จนหมดสิ้น" (catastrophic forgetting) นอกจากนี้ยังต้อง "ประเมินความน่าเชื่อถือ" (Credit Assignment) ของข้อมูลที่เข้ามาใหม่ได้อีกด้วย ไม่ใช่ว่าใครสอนอะไรก็จะเชื่อไปหมด

ใน ICML 2020 talk นี้อจ. Jurgen Schmidthuber ผู้ผู้บุกเบิกแนวคิดต่างๆ ในวงการ AI มากมาย และเป็นผู้ร่วมให้กำเนิด LSTM จะมาพูดถึงไอเดียในการออกแบบ Life-long learning model นี้ สามารถรับฟังได้ที่นี่ครับผม

https://slideslive.com/38930959/credit-assignment-metalearning-in-a-single-lifelong-trial-the-deepest-kind-of-deep-rl?ref=speaker-38102-latest

ตอบกลับอ้างอิง
Posted : 06/12/2020 3:19 am
The Neural Engineer
(@neural-engineer)
Boltzmann Machine

Yoshua Bengio @ Knowledge Representation NIPS 2020 Worksh0p

https://slideslive.com/38938121/deep-learning-of-conscious-processing-over-verbalizable-knowledge

ตอบกลับอ้างอิง
Posted : 11/12/2020 11:05 pm
The Neural Engineer
(@neural-engineer)
Boltzmann Machine

Talk with Max Welling: Quantum, Manifolds & Symmetries in ML

ตอบกลับอ้างอิง
Posted : 04/01/2021 7:33 am
The Neural Engineer
(@neural-engineer)
Boltzmann Machine

AI DEBATE 2

Moving AI Forward: An Interdisciplinary Approach

MONTREAL.AI

https://montrealartificialintelligence.com/aidebate2/

ตอบกลับอ้างอิง
Posted : 05/01/2021 7:38 am
Share:

Please Login or Register