ทุกๆ เดือน มักจะมีงานวิจัยใหม่ออกมาเคลมว่า LLM สามารถอ่านฟิล์มเอกซเรย์ได้แล้ว

ช่วงก่อนหน้านี้ ผลลัพธ์จากงานวิจัยส่วนใหญ๋มักจะออกมาคล้ายๆ กัน คือโมเดล LLM ทั่วไป เช่น GPT-4V สามารถอธิบาย findings ในภาพรังสีวิทยาได้ เช่น มองเห็นภาวะหัวใจโต (Cardiomegaly) หรือน้ำท่วมปอดชัดๆ ได้

แต่พอใช้ในบริบททางคลินิกจริงๆ LLM เหล่านี้ สู้โมเดลเฉพาะทางอย่าง CheXpert หรือสู้หมอ radio จริงๆ ไม่ได้เลย 1,2

แต่บทสรุปนี้เพิ่งถูกท้าทายด้วยเปเปอร์ที่น่าสนใจ ซึ่งตีพิมพ์ในเดือนเมษายน 2026 ที่เพิ่งผ่านมานี่เองครับ

Japan Paper

งานวิจัยจากญี่ปุ่นที่ทดสอบโมเดลรุ่นใหม่ล่าสุด (ปลายปี 2025) กับข้อสอบบอร์ดรังสีวิทยาของญี่ปุ่น (JDRBE) พบว่า Gemini 3 Pro ทำคะแนนรวมในโหมดอ่านภาพได้ถึง 85.3% ซึ่งเทียบเท่าได้กับรังสีแพทย์ที่เพิ่งสอบผ่านบอร์ด (กลุ่ม reference ทำคะแนนได้ 65-83%) ส่วน GPT-5.1 กับ Claude Opus 4.5 ทำคะแนนเกาะกลุ่มอยู่ที่ประมาณ 80% 4

สิ่งที่ยังไม่ถูกพิสูจน์

แม้คะแนนสอบจะออกมาดูว้าวมาก แต่เปเปอร์นี้ก็เน้นย้ำชัดเจนว่าจุดอ่อนที่ใหญ่ที่สุดของ AI เหล่านี้ก็คือ การหลอน (Hallucination) ครับ ซึ่งในบริบทนี้คือ การไปอธิบายรอยโรคในที่ที่ไม่มีอยู่จริง ซึ่งยังคงเป็นข้อผิดพลาดอันดับหนึ่งอยู่ (43%)

โดยในปัจจุบัน (เม.ย. 2026) ยังไม่มีงานไหนที่เอาโมเดล​ LLM รุ่นล่าสุดที่เก่งกาจเหล่านี้มาทดสอบกับกลุ่มผู้ป่วยชาวไทย

แล้วทั้งหมดนี้แปลว่าอะไร สำหรับการแพทย์ในประเทศไทย ?

ข้อแรกคือ เวลาเห็นใครมาเดโม่ AI อ่านฟิล์มโชว์ใน conference คำถามที่คุณควรจะถามไม่ใช่ว่ามันอ่านเคสนี้ถูกไหม แต่ต้องถามว่าเกณฑ์มาตรฐานที่เอาไปเทียบคืออะไร และตัวที่เอามาเทียบด้วยทำคะแนนได้เท่าไหร่ ถ้าเขาตอบไม่ได้ การสาธิตนั้นก็ไม่ได้น่าเชื่อถือเท่าไหร่หรอกครับ

ข้อที่สอง แม้ gap ความสามารถตรงนี้จะแคบลงอย่างเห็นได้ชัดจนถึงระดับสอบบอร์ดผ่าน แต่ก็คงไม่ได้พลิกบริบทของรังสีแพทย์ในประเทศไทยเป็นที่แรกในอนาคตอันใกล้นี้ โดยบทบาทของโมเดล LLM ทั่วไปน่าจะเข้ามาเป็นแค่ชั้นของการจัดการ Workflow Layer ที่ครอบทับกระบวนการทำงานเดิมอีกที ไม่ใช่เครื่องมือที่จะเอามาแทนที่รังสีแพทย์แบบเบ็ดเสร็จ

ถ้าใครอยากตามไปอ่าน เปเปอร์ที่ 4 ด้านล่าง อัปเดตสถานการณ์ได้น่าสนใจมากๆ ลองไปดูกันได้ครับ