MIT วิจัยเพื่อทำให้ AI ฉลาดขึ้น

ทีมงาน MIT สอนโมเดล AI ในสิ่งที่พวกเขายังไม่รู้

การประยุกต์ใช้ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็ว และผสานเข้ากับชีวิตประจำวันของเราและอุตสาหกรรมที่มีความสำคัญสูง เช่น การดูแลสุขภาพ โทรคมนาคม และพลังงานมากขึ้นเรื่อยๆ แต่ด้วยพลังที่ยิ่งใหญ่ ย่อมมาพร้อมกับความรับผิดชอบที่ยิ่งใหญ่: ระบบ AI บางครั้งอาจทำผิดพลาดหรือให้คำตอบที่ไม่แน่นอน ซึ่งอาจส่งผลกระทบร้ายแรงได้

Themis AI ของ MIT ซึ่งร่วมก่อตั้งและนำโดยศาสตราจารย์ Daniela Rus จากห้องปฏิบัติการ CSAIL นำเสนอโซลูชันที่ล้ำสมัย เทคโนโลยีของพวกเขาช่วยให้โมเดล AI สามารถ 'รู้ว่าตนเองไม่รู้อะไร' ซึ่งหมายความว่าระบบ AI สามารถระบุได้เมื่อพวกเขามีความไม่แน่นอนเกี่ยวกับการคาดการณ์ของตนเอง ทำให้สามารถป้องกันข้อผิดพลาดได้ก่อนที่จะก่อให้เกิดความเสียหาย

ทำไมสิ่งนี้จึงสำคัญมาก?
โมเดล AI จำนวนมาก แม้แต่โมเดลที่ล้ำสมัย ก็อาจแสดงสิ่งที่เรียกว่า 'ภาพหลอน' (hallucinations) ได้ นั่นคือการให้คำตอบที่ผิดพลาดหรือไม่มีมูลความจริง ในภาคส่วนที่มีการตัดสินใจที่มีน้ำหนักมาก เช่น การวินิจฉัยทางการแพทย์ หรือการขับขี่อัตโนมัติ สิ่งนี้อาจนำไปสู่ผลลัพธ์ที่เลวร้ายได้ Themis AI ได้พัฒนา Capsa ซึ่งเป็นแพลตฟอร์มที่ใช้การวัดปริมาณความไม่แน่นอน (uncertainty quantification): โดยการวัดและหาปริมาณความไม่แน่นอนของผลลัพธ์ AI ในลักษณะที่ละเอียดและเชื่อถือได้

 ทำงานอย่างไร?
การเพิ่มความตระหนักถึงความไม่แน่นอน (uncertainty awareness) ให้กับโมเดล ทำให้สามารถระบุป้ายกำกับความเสี่ยงหรือระดับความน่าเชื่อถือให้กับผลลัพธ์ได้ ตัวอย่างเช่น รถยนต์ขับเคลื่อนอัตโนมัติสามารถระบุได้ว่าไม่แน่ใจเกี่ยวกับสถานการณ์ และเรียกใช้การแทรกแซงของมนุษย์ สิ่งนี้ไม่เพียงแต่เพิ่มความปลอดภัยเท่านั้น แต่ยังเพิ่มความไว้วางใจของผู้ใช้ในระบบ AI อีกด้วย

ตัวอย่างการนำไปใช้งานทางเทคนิค

  • เมื่อรวมกับ PyTorch การห่อหุ้มโมเดลจะทำผ่าน capsa_torch.wrapper() โดยที่ผลลัพธ์ประกอบด้วยทั้งการคาดการณ์และความเสี่ยง:

Python example met capsa

สำหรับโมเดล TensorFlow, Capsa ใช้งานร่วมกับ decorator:

tensorflow

ผลกระทบต่อธุรกิจและผู้ใช้งาน
สำหรับ NetCare และลูกค้าของเรา เทคโนโลยีนี้ถือเป็นก้าวกระโดดครั้งสำคัญ เราสามารถส่งมอบแอปพลิเคชัน AI ที่ไม่เพียงแต่ชาญฉลาดเท่านั้น แต่ยังปลอดภัยและคาดการณ์ได้ดีขึ้น พร้อมลดโอกาสในการเกิดภาพหลอน (hallucinations) ซึ่งช่วยให้องค์กรสามารถตัดสินใจได้อย่างมีข้อมูลสนับสนุนมากขึ้น และลดความเสี่ยงในการนำ AI ไปใช้ในแอปพลิเคชันที่สำคัญต่อธุรกิจ

บทสรุป
MIT ทีม แสดงให้เห็นว่าอนาคตของ AI ไม่ได้ขึ้นอยู่กับการฉลาดขึ้นเท่านั้น แต่ยังรวมถึงการทำงานที่ปลอดภัยและยุติธรรมยิ่งขึ้นด้วย ที่ NetCare เราเชื่อว่า AI จะมีคุณค่าอย่างแท้จริงก็ต่อเมื่อมีความโปร่งใสเกี่ยวกับข้อจำกัดของตนเอง ด้วยเครื่องมือการวัดปริมาณความไม่แน่นอนขั้นสูง เช่น Capsa คุณสามารถนำวิสัยทัศน์นั้นมาปฏิบัติได้จริง

เจอรัรด์

Gerard ทำงานเป็นที่ปรึกษาและผู้จัดการด้าน AI ด้วยประสบการณ์มากมายในองค์กรขนาดใหญ่ เขาสามารถคลี่คลายปัญหาและทำงานไปสู่การแก้ไขได้อย่างรวดเร็ว เมื่อรวมกับพื้นฐานทางเศรษฐศาสตร์ เขาจึงมั่นใจได้ว่าการตัดสินใจนั้นมีความรับผิดชอบในเชิงธุรกิจ

หุ่นยนต์ปัญญาประดิษฐ์ (AIR)