จากข้อมูลของ Android Authority เอกสารวิจัยของ Apple ได้อธิบายถึงวิธีการแก้ปัญหาสำหรับการใช้งานโมเดลภาษาขนาดใหญ่ (LLM) บนอุปกรณ์ที่มี RAM จำกัด เอกสารดังกล่าวเผยให้เห็นว่าบริษัทสามารถจัดเก็บ "พารามิเตอร์ของโมเดล" และโหลดส่วนหนึ่งของพารามิเตอร์เหล่านั้นลงใน RAM ของอุปกรณ์เมื่อจำเป็น แทนที่จะโหลดโมเดลทั้งหมดลงใน RAM
Apple กำลังมองหาวิธีที่จะช่วยให้ iPhone รุ่นเก่าที่มี RAM น้อย สามารถใช้งาน AI ทั่วไปได้
งานวิจัยนี้ชี้ให้เห็นว่า วิธีนี้ช่วยให้สามารถรันโมเดลที่ต้องการ RAM มากกว่าที่ iPhone มีได้ถึงสองเท่า ในขณะที่ยังคงรักษาความเร็วในการประมวลผลที่เร็วกว่า 4-5 เท่า และเร็วกว่า 20-25 เท่า ตามลำดับ เมื่อเทียบกับวิธีการโหลดลงบน CPU และ GPU ที่ง่ายกว่า
การนำ AI สังเคราะห์มาใช้บนอุปกรณ์ที่มี RAM จำนวนมากนั้นให้ประโยชน์อย่างมาก เนื่องจากให้ความเร็วในการอ่าน/เขียนที่เร็วกว่า ความเร็วเป็นสิ่งสำคัญสำหรับ AI บนอุปกรณ์ ทำให้เวลาในการประมวลผลเร็วขึ้นมาก เพราะผู้ใช้ไม่จำเป็นต้องรอหลายสิบวินาที (หรือมากกว่านั้น) เพื่อรับการตอบสนองหรือผลลัพธ์สุดท้าย ทั้งหมดนี้หมายความว่าผู้ช่วย AI บนอุปกรณ์สามารถทำงานได้ด้วยความเร็วระดับการสนทนา สร้างภาพ/ข้อความได้เร็วขึ้น สรุปบทความได้เร็วขึ้น ฯลฯ แต่โซลูชันของ Apple หมายความว่าผู้ใช้ไม่จำเป็นต้องมี RAM จำนวนมากเพื่อเพิ่มความเร็วในการตอบสนองของงาน AI บนอุปกรณ์
แนวทางของ Apple อาจทำให้ iPhone ทั้งรุ่นเก่าและรุ่นใหม่สามารถนำเสนอคุณสมบัติ AI แบบบูรณาการได้โดยตรงในตัวเครื่อง ซึ่งเป็นเรื่องสำคัญเพราะโดยทั่วไปแล้ว iPhone ของ Apple มี RAM น้อยกว่าโทรศัพท์ Android ระดับไฮเอนด์ ตัวอย่างเช่น iPhone 11 ซีรีส์มี RAM เพียง 4 GB ในขณะที่ iPhone 15 รุ่นมาตรฐานก็มี RAM เพียง 6 GB เท่านั้น
Apple ไม่ใช่บริษัทมือถือเพียงแห่งเดียวที่พยายามย่อขนาด LLM (Level Model Module) ชิปเรือธงรุ่นล่าสุดจาก Qualcomm และ MediaTek ต่างก็รองรับความแม่นยำระดับ INT4 เพื่อลดขนาดโมเดลเหล่านี้ ไม่ว่าจะด้วยวิธีใด บริษัทต่างๆ กำลังพยายามหาวิธีแก้ปัญหาใหม่ๆ เพื่อลดความต้องการของระบบสำหรับ AI บนอุปกรณ์ต่างๆ ทำให้แม้แต่โทรศัพท์ระดับล่างก็สามารถใช้งานฟังก์ชันนี้ได้
[โฆษณา_2]
ลิงก์แหล่งที่มา






การแสดงความคิดเห็น (0)