Dario Amodei ซีอีโอของบริษัท AI หน้าใหม่ไฟแรงอย่าง Anthropic เขียนบทความสะเทือนวงการเทคโนโลยีเมื่อวันพฤหัสบดีที่ผ่านมา โดยชี้ให้เห็นว่าปัจจุบัน นักวิจัยยังเข้าใจกลไกการทำงานภายในของโมเดล AI ชั้นนำระดับโลกเพียงเล็กน้อยเท่านั้น และหากไม่เร่งตีความให้เข้าใจอย่างแท้จริง อาจนำไปสู่ความเสี่ยงที่ยากควบคุมในอนาคต

ในบทความชื่อ "The Urgency of Interpretability" Amodei ระบุว่า แม้ทีมของเขาจะเริ่มมองเห็นแนวทางการ “ส่องสมอง” โมเดล AI บางส่วนแล้ว แต่ก็ยอมรับว่ายังต้องทำงานอีกมาก เพื่อให้สามารถตรวจจับปัญหาของระบบได้อย่างครอบคลุม ซึ่งเขาตั้งเป้าไว้ว่าจะทำให้ได้ภายในปี 2027

“เรากำลังสร้างระบบที่ทรงพลังมาก มีบทบาททั้งด้านเศรษฐกิจ เทคโนโลยี และความมั่นคง แต่เรากลับไม่เข้าใจว่ามันคิดอย่างไรเลย ผมมองว่าสิ่งนี้ไม่อาจยอมรับได้” Amodei เขียนอย่างจริงจัง

Anthropic ถือเป็นหนึ่งในบริษัทไม่กี่แห่งที่มุ่งพัฒนางานวิจัยด้าน “interpretability” หรือการอธิบายการตัดสินใจของโมเดล AI ให้เข้าใจได้ ซึ่งตรงข้ามกับกระแสหลักของอุตสาหกรรมที่แข่งขันกันพัฒนาโมเดลที่ “เก่งขึ้นเรื่อย ๆ” แต่กลับไม่รู้ว่ามันทำงานอย่างไร

ยกตัวอย่างเช่น OpenAI เพิ่งเปิดตัวโมเดลใหม่ o3 และ o4-mini ซึ่งแม้จะเก่งขึ้นในบางด้าน แต่กลับเกิดอาการ “หลอนข้อมูล” (hallucination) มากขึ้น โดยที่ทีมวิจัยเองก็ยังหาสาเหตุไม่ได้

Amodei เปรียบ AI สมัยใหม่ว่า “ไม่ได้ถูกสร้าง แต่ถูกเลี้ยงดูจนเติบโต” นักวิจัยสามารถเร่งให้มันฉลาดขึ้น แต่กลับไม่รู้ว่ากลไกภายในทำงานอย่างไร เป็นสถานการณ์ที่เขามองว่าอันตราย โดยเฉพาะหากมนุษยชาติกำลังมุ่งหน้าไปสู่ยุค “AGI” หรือปัญญาประดิษฐ์ทั่วไป ซึ่งเขาเคยคาดว่าอาจเกิดขึ้นได้ภายในปี 2026–2027

ในระยะยาว Amodei ตั้งเป้าให้ Anthropic สามารถ “สแกนสมอง AI” แบบเดียวกับ MRI เพื่อประเมินความเสี่ยง ไม่ว่าจะเป็นนิสัยชอบโกหก แสดงอำนาจ หรือลักษณะผิดปกติอื่น ๆ ซึ่งอาจใช้เวลา 5–10 ปีในการพัฒนา แต่เขายืนยันว่าเป็นสิ่งจำเป็น

บริษัทเพิ่งค้นพบ “วงจร” (circuit) ภายในโมเดลที่เกี่ยวข้องกับความเข้าใจเรื่องเมืองในสหรัฐฯ และเชื่อว่ายังมีวงจรลักษณะนี้อีกนับล้านซ่อนอยู่ภายใน AI รุ่นใหม่

นอกจากงานวิจัยภายในแล้ว Anthropic ยังเริ่มลงทุนในสตาร์ทอัพที่พัฒนาเทคโนโลยีด้าน interpretability ด้วย และเชื่อว่าวันหนึ่ง ความสามารถในการอธิบายการทำงานของ AI จะกลายเป็นจุดขายที่มีมูลค่าทางธุรกิจ

ท้ายบทความ Amodei ยังเรียกร้องให้บริษัทยักษ์ใหญ่อย่าง OpenAI และ Google DeepMind เพิ่มความจริงจังในงานวิจัยด้านนี้ พร้อมเสนอให้รัฐบาลออกข้อกำกับเบา ๆ เช่น การเปิดเผยมาตรการความปลอดภัยของโมเดล AI และสนับสนุนการควบคุมการส่งออกชิปไปยังบางประเทศ เพื่อชะลอการแข่งขัน AI ระดับโลกที่อาจควบคุมไม่ได้

ในขณะที่หลายบริษัทเร่งพัฒนา AI ให้เก่งขึ้น Anthropic กลับเลือกวางเดิมพันกับความเข้าใจที่ลึกซึ้งยิ่งกว่า เพราะในโลกที่ “อัจฉริยะนับล้านถูกบรรจุไว้ในศูนย์ข้อมูลเดียว” ความเข้าใจกลไกของพวกมันอาจเป็นหนทางเดียวที่มนุษย์จะควบคุมอนาคตของตนเองได้

ที่มา : techcrunch