ข่าวไอที Blognone » Apple เผยแพร่งานวิจัย AI ที่เข้าใจคำถามกำกวม โดยอาศัยบริบทเพิ่มเติมจากข้อมูลในหน้าจอโทรศัพท์

Apple เผยแพร่งานวิจัย AI ที่เข้าใจคำถามกำกวม โดยอาศัยบริบทเพิ่มเติมจากข้อมูลในหน้าจอโทรศัพท์

3 เมษายน 2024
12   0

ทีมนักวิจัยของแอปเปิลเผยแพร่ผลงาน AI ที่เพิ่มความสามารถเข้าใจบริบท (context) ของคำถามจากผู้ใช้งาน โดยอ้างอิงจากสิ่งที่ปรากฏบนหน้าจอของผู้ใช้งาน

ระบบ AI นี้มีชื่อเรียกว่า ReALM ย่อมาจาก Reference Resolution As Language Modeling เป็นโมเดล LLM ที่สามารถเข้าใจคำถามซึ่งไม่ชัดเจนหรือกำกวม ด้วยการหาข้อมูลเพิ่มเติมจากสิ่งที่ปรากฏบนหน้าจอโทรศัพท์ ทำให้บทสนทนามีความลื่นไหลและเป็นธรรมชาติมากยิ่งขึ้น

ตัวอย่างการใช้งาน เช่น ถามแชทบอตให้แสดงรายชื่อร้านขายยาที่อยู่ใกล้ ตามปกติจะได้คำตอบเป็นรายชื่อร้านขายยา ก็สามารถส่งคำถามต่อไปเช่น "โทรหาร้านที่อยู่ถนน XXX" หรือ "โทรหาร้านล่างสุด" หรือ "โทรหาเบอร์นี้" (หน้าจอมีเบอร์โทรเบอร์เดียว) ซึ่งแชทบอตทั่วไปจะถามกลับขอข้อมูลเพิ่มเติม เนื่องจากคำถามกำกวม แต่ ReALM สามารถทำงานต่อได้เพราะใช้ข้อมูลบนหน้าจอประกอบ ในงานวิจัยนี้ยังทดสอบคำถามประเภทนี้เทียบกับ ChatGPT (ทั้ง GPT-3.5 และ GPT-4) พบว่าทำงานได้ดีกว่า

งานวิจัยนี้ทำให้เห็นทิศทางฟีเจอร์หนึ่งที่แอปเปิลสามารถนำมาใส่ใน Siri ได้นั่นเอง

ที่มา: VentureBeat

[source: https://www.blognone.com/node/139043]