Notifications
Clear all

ThaiAGI Series เพื่อความเข้าใจ AI อย่างลึกซึ้ง

4 ข้อความ
1 Users
0 Likes
15 Views
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 7 years ago
ข้อความ: 409
Topic starter  

ก่อนอื่นเราต้องรู้ก่อนว่าการศึกษา AI ให้เชี่ยวชาญมีหลายระดับ และเราต้องตั้งเป้าให้เหมาะสมกับเป้าหมายของเราเอง

 
การพัฒนาเพื่อให้ตัวเองเป็นผู้เชี่ยวชาญในยุคใหม่ของ AGI นี้ เราควรตั้งเป้าเรียนรู้อะไร? โดยทั่วไปอาจมีคำแนะนำหลายแบบจากผู้รู้หลายท่าน เช่น
- ฝึกตั้งคำถาม 🙋‍♀️พูดคุยกับโมเดล AI ให้ได้คำตอบดีที่สุด (Prompting)
- เขียนโปรแกรมครอบโมเดล AI 🧑‍💻 ให้ทำงาน routine หรือ งานหลากหลายได้สะดวก (Agentic AI)
- ศึกษาโมเดล AI อย่างลึกซึ้ง 🧐 ทั้งในแง่สมการคณิตศาสตร์ และการเขียนโปรแกรมสร้างมันขึ้นมา
แท้จริงแล้ว ทุกแนวทางก็ถือเป็นวิถีที่จะทำให้เราเป็นผู้เชี่ยวชาญด้าน AI เพียงแต่ขึ้นอยู่กับว่างานหลักที่เราต้องใช้งาน AI อยู่ในรูปแบบไหน และเราเองปรารถนาที่จะไปลึกแค่ไหน
จึงเป็นที่มาของบทความนี้ ที่จะแบ่งการพัฒนาความรู้ด้าน AI เป็น 5 วิถี เพื่อให้เป็นผู้เชี่ยวชาญเรื่อง AI ในแบบที่เหมาะสมกับตัวคุณเอง
5 วิถีนี้จริงๆ แล้วเรียงจากง่ายไปยาก เราจึงสามารถมองได้อีกแบบเป็น “บันได 5 ขั้น” หรือ “5 Levels of AI Expertise” ก็ได้ครับ
Level 1️⃣
ระดับผู้ใช้งาน (User Level) : สำหรับงานส่วนตัวและธุรกิจทั่วไป ต้องเชี่ยวชาญเรื่อง Prompting และติดตามเรียนรู้ tools และ technology ใหม่ๆ สม่ำเสมอ เพื่อให้ได้คำตอบจาก AI ที่สมบูรณ์ มีเหตุผล ตรงตามความต้องการมากที่สุด
Level 2️⃣
ระดับโปรแกรมเมอร์ (Programmer Level): สำหรับการนำ AI ไปต่อยอดสร้าง Applications หรือการใช้งาน AI กับปัญหาที่มีความซับซ้อนมากขึ้น โดยปัญหาเหล่านี้ต้องมีการปรึกษา AI ซ้ำหลายรอบ (iterations) หรือมีการตรวจหรือพัฒนาคำตอบ ต้องมุ่งเน้น Agentic Programming เพื่อให้การติดต่อ AI หลายรอบนี้ทำได้อย่างง่ายและประสิทธิภาพสูง
Level 3️⃣
ระดับนักพัฒนา (Developer Level): สำหรับบริษัท นักวิจัย นักวิทยาศาสตร์ วิศวกรด้าน AI ที่จริงจังและต้องการปรับเปลี่ยนพฤติกรรมและความรู้ของ AI อย่างมีนัยสำคัญ การนำ AI ไปช่วยเหลือในงานผลิตภัณฑ์เฉพาะทาง เช่น ออกแบบโมเลกุลยา เป็นต้น ควรต้องศึกษา AI Fundamental อย่างลึกซึ้ง เนื่องจากต้องมีการออกแบบโปรแกรมการสอน และข้อมูลสอน AI ให้ถูกต้อง
(การแข่งขันเขียนโปรแกรมบน Kaggle ขั้นเริ่มต้นจนถึงเหรียญทองแดง จะอยู่ราวๆ ขั้นนี้)
Level 4️⃣
ระดับนักพัฒนาขั้นสูง (Advanced Level): สำหรับองค์กรขนาดใหญ่ ที่ไม่เพียงต้องการปรับความรู้และพฤติกรรมของ AI แต่ยังต้องการรีดเค้นให้ AI มีประสิทธิภาพสูงที่สุด (แม่นยำ เร็ว และประหยัดที่สุด) ต้องเรียนรู้ตลอดเวลาเพื่อประยุกต์ใช้เทคนิคขั้นสูง และดัดแปลงงานวิจัยใหม่ๆ ที่ได้รับการพิสูจน์และยอมรับในวงกว้าง โดยอาจต้องมีการแก้ ดัดแปลงโค้ด จาก OpenSource อย่างมีนัยสำคัญ
(การแข่งขันเขียนโปรแกรมบน Kaggle ชิงระดับเหรียญทองหรือเหรียญเงิน น่าจะอยู่ในขั้นนี้)
Level 5️⃣
ระดับดาราในวงการ (Star Level) : หรืออาจเรียกว่า นักวิจัยระดับโลก สำหรับนักวิจัยที่อยู่ในวงการและมีส่วนร่วมในการขับเคลื่อนทิศทางด้วยการคิดค้นนวัตกรรม AI ในระดับสากล ต้องมีพื้นฐาน Level 3 และ 4 อย่างแข็งแรง รวมทั้งเข้าใจงานวิจัยในงานประชุมวิชาการด้าน AI ที่ดีที่สุด เช่น ICLR, NIPS หรือ ICML อย่างลึกซึ้งทั้งภาคทฤษฎี สมการคณิตศาสตร์ และการ Implementation
ยังมีอ่านรายละเอียดในแต่ละ Level (อีกมาก) ในบทความฉบับเต็ม ติดตามอ่านได้ในรูปแบบ magazine ที่นี่คร้าบ: https://thaiagi.substack.com/p/5-ai-expertise
This topic was modified 2 weeks ago 4 times by The Neural Engineer

   
อ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 7 years ago
ข้อความ: 409
Topic starter  

ลำดับถัดมาก่อนที่เราจะเจาะลึกหัวใจของ AI เรามาดูประวัติความเป็นมากันครับ

ปฐมบท AGI: AI มาถึงจุดนี้ได้อย่างไร

จาก Linear Model ถึง ChatGPT-o3 ในปี 2025
ในช่วงไม่กี่ปีที่ผ่านมา มนุษย์ได้สร้าง “เทคโนโลยี AI” อย่าง ChatGPT ที่เชี่ยวชาญ “ภาษามนุษย์” อย่างแตกฉานระดับที่สามารถทำโจทย์ปัญหาปริญญาเอกได้, เทคโนโลยี Diffusion ที่ “วาดรูปถ่ายและวิดิโอ” ระดับเหมือนจริง เทคโนโลยี AlphaGo ที่เอาชนะแชมป์โลกมนุษย์ใน" “เกมส์โกะ” ที่สุดซับซ้อน หรือกระทั่งเทคโนโลยี AlphaFold ที่อธิบายโครงสร้างโปรตีน 3 มิติที่มนุษย์ไม่สามารถทำได้มาเกือบ 70 ปี และคว้า Nobel Prize 2024 ได้สำเร็จ
วิวัฒนาการของเทคโนโลยี AI เหล่านี้ที่พัฒนาไปอย่างรวดเร็วใน 10 ปีที่ผ่านมานี้ถูกคิดค้นโดยมนุษยชาติได้อย่างไร เราจะเล่าให้ฟังในบทความฉบับ Magazine ของ ThaiAGI (คลิกลิงก์)
• นวัตกรรมที่ผ่านมาของมนุษยชาติ อยู่ในรูป "พลังงาน" "ร่างกาย" แต่ไม่ใช่ "สมอง" ครั้งนี้เป็นครั้งแรกที่นวัตกรรมมาแทนมันสมองซึ่งสร้าง "ความฉลาด" เฉพาะตัวของเผ่าพันธุ์มนุษย์
• การพัฒนาความรู้ของมนุษย์ล้วนเริ่มจาก การลองผิดลองถูก มาเป็นทฤษฎี และเป็น "คณิตศาสตร์"
• คณิตศาสตร์ของ AI ตอบคำถามว่าทำไมเราถึงต้องเรียน สมการเชิงเส้น, แคลคูลัส และความน่าจะเป็น
• หัวใจของ "ความฉลาด" เริ่มจากโจทย์ง่ายๆ ที่เรียกว่า Classification
• จุดเปลี่ยนแปลงของโลกในปี 2012 (Deep Learning) และ 2017 (Transformers)
• ความฉลาด ที่เหนือชั้นยิ่งขึ้นเมื่อมี AI เรียนรู้ "การวางแผนระยะยาว" ด้วย Reinforcement Learning จนมาเป็น ChatGPT O-series ในปัจจุบันที่ทำโจทย์ระดับปริญญาเอกได้
* AI vs. AGI
ถ้าอยากรู้วิวัฒนาการของเทคโนโลยี AI ที่น่าตื่นเต้นนี้อย่างกระจ่าง กดอ่านบทความฉบับ Magazine ของ ThaiAGI ในลิงก์ ได้เลยครับ

   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 7 years ago
ข้อความ: 409
Topic starter  

เข้าสู่ตอนแรกของ Transformers Series, โมเดลที่เป็นหัวใจของ AI ในท้องตลาดทุกตัวไม่ว่าจะเป็น ChatGPT, Gemini, Claude, etc.

 

Transformers หัวใจของ ChatGPT

 

จากบทความ “ปฐมบท AGI” เราได้เห็นแล้วว่า โมเดล AI ที่ปฏิวัติเทคโนโลยีโลกไม่ว่าจะเป็น ChatGPT หรือ Gemini ล้วนมีโมเดลที่ชื่อว่า Transformers เป็น “สมอง” หรือ “ความฉลาด” ตัวจริงของ AI เหล่านี้

GPT ก็ย่อมาจากคำว่า Generative Pretrained Transformers และแท้จริงแล้ว ChatGPT เป็นโมเดลที่อัพเกรดจาก Transformers มาเล็กน้อยเท่านั้น หัวใจสำคัญยังอยู่ที่ Transformers

 

ใน ThaiAGI Transformers Series เราจะมาทำความรู้จัก Transformers กันอย่างละเอียด โดยบทความนี้เป็นจุดเริ่มต้นของ Series นี้และจะประกอบไปด้วยสี่หัวข้อหลัก ที่เชื่อมโยงกันดังนี้ครับ

  1. (เกือบ)ทุกปัญหาที่ AI แก้ มาจากปัญหาง่ายๆ ที่เรียกว่า “Classification” หรือ “ปัญหาการแบ่งประเภทวัตถุ” ซึ่ง Transformers ก็มาแก้ปัญหานี้เช่นกัน โดยมุมมอง classification นี้สามารถขยายไปสู่ปัญหาการพูดโต้ตอบในภาษามนุษย์ของ ChatBots ทั้งหลายได้

  2. ในปัญหา classification ง่ายๆ AI สมัยก่อน เราใช้ 2.1 (ขั้น I) Feature Extraction) “ความรู้มนุษย์” สร้าง Features โดยแต่ละ feature แทนการวัดค่าบางอย่างจากวัตถุ 2.2 (ขั้น II) Linear Model ลากเส้นแบ่งวัตถุแต่ละกลุ่มออกจากกัน

  3. ในวัตถุที่ซับซ้อนเช่น “ภาษามนุษย์” ที่เราต้องการให้ AI เข้าใจ (ขั้น I*) ตีความหมาย Features ใหม่ โดยใช้การตีความว่า feature คือ “ทิศทางใน vector space (ขั้น II*) ตีความหมาย Linear Model ใหม่ เปลี่ยนจากการมองเป็นการลากเส้นแบ่ง เป็นการ “หา vector ในทิศทางที่เหมาะสม”

  4. ทำความรู้จัก “ภาพรวม” ของส่วนประกอบหลักในโมเดล Transformers —> Neural networks, Attentionsม Embedding และอื่นๆ ซึ่งจะลิงก์ไปบทความถัดไปของ ThaiAGI Transformers Series ที่จะอธิบายส่วนประกอบทุกชิ้นของ Transformers อย่างละเอียด


   
ตอบกลับอ้างอิง
The Neural Engineer
(@neural-engineer)
Honorable Member Admin
เข้าร่วมเมื่อ: 7 years ago
ข้อความ: 409
Topic starter  

ตอนที่สองของ Transformers Series ที่เราจะมาเจาะลึกวิธีเก็บ "ความทรงจำ" ของ AI

 

FFN และ Superposition มหัศจรรย์ "ความจำ" (Memory) ของ AI

โดยในบทความนี้เราจะเจาะลึกในสองบล็อกพื้นฐานที่สุดและปรากฏการณ์ที่เกี่ยวข้องดังนี้

  1. ดูหลักการ Input Embedding (บล็อก A) เบื้องต้นในขั้นแรกสุดของการเปลี่ยน “คำ” ให้เป็น “เวกเตอร์”

    - ขั้นตอน Input Embedding นี้ทำอย่างไร และมีโค้ดทีเรียกใช้งานอย่างไร

    - ในเมื่อบล็อก A นี้เราได้เวกเตอร์แล้ว ทำไมยังจำเป็นต้อง “ปรับปรุง” เวกเตอร์ให้ดีขึ้นไปอีกในขั้นถัดไป การ “ปรับปรุง” เวกเตอร์ให้ดีขึ้น คืออะไรกันแน่?

  2. เจาะลึก FFN (บล็อก D) ซึ่งจะทำให้เราเข้าใจว่า Transformers หรือ ChatGPT - “จำ” ความรู้ต่างๆ และ “ดึงความรู้” ผ่านหลักการ “feature-as-direction” และ สมการ Linear Models ได้อย่างไร - (เชื่อมโยงกับหัวข้อ 1.) ความรู้ที่ถูกดึงจาก FFN จะถูกนำไป “ปรับปรุง” ให้เวกเตอร์ input ดียิ่งขึ้นอย่างไร

  3. ทำความรู้จักปรากฏการณ์ “Sparsity” และ “Superposition” - Sparsity คืออะไร? และ Superposition คืออะไร? - โดยสองปรากฏการณ์นี้ทำให้ FFN นั้น “เรียนรู้” หลักการ “feature-as-direction” ได้ด้วยตัวเองและ “จำความรู้” ได้ประสิทธิภาพสูงสุด ด้วยการบีบอัดหลายเวกเตอร์จำนวนมากกว่ามิติใน vector space ถึงแม้ feature vector เหล่านั้นจะไม่ตั้งฉากกันโดยสมบูรณ์


   
ตอบกลับอ้างอิง
Share: