Notifications
Clear all

คุยเฟื่องเรื่อง AGI (Artificial General Intelligence)

8 ข้อความ
1 Users
0 Likes
6,019 Views
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

#AGI #AI #ปัญญาประดิษฐ์ #หุ่นยนต์

สวัสดีครับเพื่อนๆ เป้าหมายที่เป็นความฝันสูงสุดของนักวิจัย หรือนักวิทยาศาตร์ AI ก็คือการสร้าง “หุ่นยนต์” ให้มีความ “ฉลาด” เช่นเดียวกับมนุษย์ สามารถคิดเอง แก้ปัญหาต่างๆ ได้ ไม่จำเป็นต้องให้มนุษย์สอนหรือระบุขั้นตอนทำงานอย่างละเอียดในทุกๆ เรื่อง

จริงๆ แล้วการสร้างหุ่นยนต์ที่ฉลาดเหมือนกับมนุษย์อาจมีประเด็นที่เป็นปัญหา หลายๆ เรื่อง ที่น่าสนใจครับ เช่น ถ้าหุ่นยนต์ฉลาดและมีความคิดเป็นของตนเองจริงๆ แล้ว เป็นไปได้หรือไม่ที่จะตั้งตัวเป็นศัตรูกับมนุษย์ และจะเกิดเหตุการณ์ที่ต้องทำสงครามกันเหมือนในนิยายวิทยาศาสตร์หลายๆ เรื่อง

หลายๆ คนที่เป็นคอนิยาย sci-fi มักจะอ้างถึง “กฏสามข้อของหุ่นยนต์” ของ Isaac Asimov ที่ถูกคิดค้นขึ้นมาเพื่อป้องกันไม่ให้หุ่นยนต์คิดร้ายต่อมนุษย์ (รายละเอียดข้างล่าง)  กฏเหล่านี้ใช้ได้จริงหรือไม่ วันนี้เรามาฟังมุมมองของนักวิจัย AI จาก Computerphile กันครับ

กฏของหุ่นยนต์ทั้งสามข้อของ Asimov ใช้ได้จริงหรือไม่?

ในอนาคตจะเกิดอะไรขึ้นถ้าเราสามารถสร้าง Super Intelligence AI ได้สำเร็จ ... มันจะเป็นอันตรายกับมนุษยชาติหรือไม่ หรือว่าเราสามารถใช้กฏสามข้อของ Asimov เพื่อป้องกันไม่ให้หุ่นยนต์เหล่านี้มาทำร้ายมนุษย์ได้

กฎ 3 ข้อของหุ่นยนต์
  • หุ่นยนต์มิอาจกระทำการอันตรายต่อผู้ที่เป็นมนุษย์ หรือนิ่งเฉยปล่อยให้ผู้ที่เป็นมนุษย์ตกอยู่ในอันตรายได้ ...
  • หุ่นยนต์ต้องเชื่อฟังคำสั่งที่ได้รับจากผู้ที่เป็นมนุษย์ เว้นแต่คำสั่งนั้นๆ ขัดแย้งกับกฎข้อแรก ...
  • หุ่นยนต์ต้องปกป้องสถานะความมีตัวตนของตนไว้ ตราบเท่าที่การกระทำนั้นมิได้ขัดแย้งต่อกฎข้อแรกหรือกฎข้อที่สอง

อ้างอิงวิกิพีเดีย

ใน Video นี้ Computerphile กล่าวว่ากฏทั้งสามข้อไม่สามารถใช้ได้จริงในทางปฏิบัติ

https://youtu.be/7PKx3kS7f4A


   
อ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

ปัญหาของปุ่ม “Stop Button”

ถ้าเรากลัวว่าหุ่นยนต์ที่ฉลาดแบบมนุษย์จะเป็นอันตรายกับเรา เราก็แค่ทำ “ปุ่มหยุดการทำงาน” (Stop Button) ไว้กดเพื่อหยุดหุ่นยนต์ในกรณีที่หุ่นยนต์จะทำอะไรที่ไม่เหมาะสม 

แนวคิดง่ายๆ นี้ที่ดูแล้วไม่น่ามีอันตรายอะไร ก็อาจทำให้เกิดปัญหาที่ใหญ่หลวงที่เราไม่คาดคิดขึ้นได้ครับ

https://youtu.be/3TYT1QfdfsM


   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

ไอเดียนึงที่จะทำให้ AI นั้นเรียนรู้ได้แบบเดียวกับมนุษย์คือ  AI ควรจะเรียนรู้ได้ "ตลอดชีวิต" (life-long learning) เหมือนกับพวกเรา  ไม่ได้จำกัดอยู่ที่ dataset ใด dataset หนึ่งแต่ต้องเรียนรู้สะสมความรู้เพิ่มเติมเมื่อเจอข้อมูล หรือ dataset ใหม่ๆ และ "ไม่ลืมความรู้เก่าๆ จนหมดสิ้น" (catastrophic forgetting) นอกจากนี้ยังต้อง "ประเมินความน่าเชื่อถือ" (Credit Assignment) ของข้อมูลที่เข้ามาใหม่ได้อีกด้วย ไม่ใช่ว่าใครสอนอะไรก็จะเชื่อไปหมด

ใน ICML 2020 talk นี้อจ. Jurgen Schmidthuber ผู้ผู้บุกเบิกแนวคิดต่างๆ ในวงการ AI มากมาย และเป็นผู้ร่วมให้กำเนิด LSTM จะมาพูดถึงไอเดียในการออกแบบ Life-long learning model นี้ สามารถรับฟังได้ที่นี่ครับผม

https://slideslive.com/38930959/credit-assignment-metalearning-in-a-single-lifelong-trial-the-deepest-kind-of-deep-rl?ref=speaker-38102-latest


   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

Yoshua Bengio @ Knowledge Representation NIPS 2020 Worksh0p

https://slideslive.com/38938121/deep-learning-of-conscious-processing-over-verbalizable-knowledge


   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

Talk with Max Welling: Quantum, Manifolds & Symmetries in ML

https://www.youtube.com/watch?v=mmDw5glry9w


   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

AI DEBATE 2

Moving AI Forward: An Interdisciplinary Approach

MONTREAL.AI

https://montrealartificialintelligence.com/aidebate2/


   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 6 years ago
ข้อความ: 400
Topic starter  

ศาสตราจารย์ Joshua Tenenbaum จาก MIT เป็นอีกคนหนึ่งที่ Active ในเรื่อง AGI มากๆ ครับ

https://mitibmwatsonailab.mit.edu/people/joshua-tenenbaum/

https://www.youtube.com/watch?v=gjc5h-czorI

https://www.youtube.com/watch?v=N3hUOJ-rUzQ


   
ตอบกลับอ้างอิง
Page 1 / 2
Share: