
มีทฤษฎีที่ยืนยาวมาช้านานว่า Apple จะนำฟีเจอร์ที่อยู่ใน Android มาหลายปีแล้วเพิ่มลงใน iPhone ตั้งชื่อใหม่ จากนั้นจึงประกาศให้มันเป็นนวัตกรรมที่สำคัญ
นั่นคือสิ่งที่ Apple ทำในระหว่างการปาฐกถาในงาน WWDC 2025 โดยเปิดเผยฟีเจอร์ใหม่หลายอย่างที่จะพร้อมใช้งานใน Apple Intelligence เมื่อมีการเปิดตัวอัปเดตซอฟต์แวร์ในช่วงปลายปีนี้
“คัดลอก” อย่างโจ่งแจ้ง
ฟีเจอร์ใหม่ที่ขับเคลื่อนด้วย AI จะช่วยยกระดับประสบการณ์ผู้ใช้จะปรากฏบน iPhone, iPad, Mac, Apple Watch และ Vision Pro ฟีเจอร์ที่โดดเด่นที่สุดคือ Live Translation
![]() |
ฟีเจอร์ Live Translation ในการโทร FaceTime ภาพ: Apple |
ออกแบบมาเพื่อขจัดอุปสรรคด้านภาษาในการสื่อสาร Live Translation สามารถผสานรวมเข้ากับแอปส่งข้อความ FaceTime และโทรศัพท์ได้ ใช้งานได้บนอุปกรณ์ทั้งหมดเพื่อรักษาความเป็นส่วนตัวในการสนทนา
ข้อความจะถูกแปลโดยอัตโนมัติเมื่อผู้ใช้พิมพ์ และข้อความตอบกลับที่ได้รับจะถูกแปลทันที คำบรรยายสดบน FaceTime จะแสดงคำแปลในขณะที่ผู้ใช้ได้ยินเสียงของอีกฝ่าย สายโทรศัพท์ก็จะถูกแปลแบบเรียลไทม์เช่นกัน
อันที่จริงแล้ว นี่เป็นฟีเจอร์ที่มีประโยชน์ที่ Samsung นำเสนอใน Galaxy AI ของตัวเอง แบรนด์เกาหลียังเรียกฟีเจอร์นี้ด้วยชื่อที่คล้ายกันว่า Live Translate
เช่นเดียวกับ Apple ฟีเจอร์ Live Translate ของ Samsung จะแปลเนื้อหาการสนทนาเป็นภาษาอื่นแบบเรียลไทม์ ด้วยโมเดลภาษาในตัวและฮาร์ดแวร์ที่ปรับแต่งมาอย่างดี การบันทึกและประมวลผลเนื้อหาจึงเกิดขึ้นบนอุปกรณ์โดยตรง เพื่อความเป็นส่วนตัวของผู้ใช้
นอกจากนี้ Google ยังได้เปิดตัวฟีเจอร์แปลภาษาสดในงาน I/O 2022 ด้วยภาพแรกของโมเดลแว่นตาเสมือนจริง (AR) ที่อยู่ระหว่างการพัฒนา ใน วิดีโอ ของ Google อุปกรณ์กำลังแปลภาษาและแสดงผลตรงหน้าผู้ใช้โดยตรง
“คุณจะเห็นสิ่งที่ฉันกำลังพูดแบบเรียลไทม์ เหมือนคำบรรยาย” ตัวแทนของ Google กล่าว ในวิดีโอ คุณจะเห็นว่าแว่นตา AR ของ Google มีลำโพงภายนอก และดีไซน์ก็ค่อนข้างคล้ายกับแว่นตา แฟชั่น ทั่วไป
ในฐานะผู้มาทีหลัง Apple จำเป็นต้องแก้ไขจุดอ่อนของฟีเจอร์แปลภาษานี้ โดยเฉพาะอย่างยิ่งเมื่อใช้ Live Translate ผู้ใช้จะมีปัญหาในการตัดสินใจว่าจะเริ่มต้นหรือหยุดพูดเมื่อใดเพื่อให้ AI แปลภาษา
เมื่อลิซ่า อีดิซิคโค ผู้สื่อข่าว CNET ได้ลองชิมที่ตลาดแห่งหนึ่งในปารีส เธอพบว่ายากที่จะจดจ่อกับบทสนทนา เพราะต้องจดจ่อกับสิ่งที่ปรากฏบนหน้าจอ สุดท้ายเธอก็ตัดสินใจซื้อของด้วยวิธีเดิมๆ คือ ชี้นิ้ว ทำท่าทาง และใช้ภาษาฝรั่งเศสแบบผิดๆ ในการอธิบาย
รับสายหรือฟังการโทรแทนผู้ใช้
เมื่อ Google เปิดตัว Pixel 6 และ Pixel 6 Pro ในปี 2021 ได้ประกาศฟีเจอร์ใหม่ที่มีประโยชน์มากสำหรับผู้ใช้ที่เรียกว่า Hold for Me เมื่อเปิดใช้งาน Pixel AI จะคอยฟังเสียงเมื่อมีคนหยิบโทรศัพท์ขึ้นมา และแจ้งเตือนผู้ใช้ด้วยคำแนะนำเพื่อให้การสนทนาดำเนินต่อไปได้
ฟีเจอร์นี้มีประโยชน์มาก เพราะช่วยให้ผู้ใช้สามารถทำอย่างอื่นได้อย่างสะดวกสบาย โดยไม่ต้องฟังเสียงเพื่อดูว่าอีกฝ่ายกลับมาคุยต่อหรือไม่ เมื่ออีกฝ่ายกลับมาคุยต่อ ผู้ช่วยเสมือนบน Pixel จะแจ้งเตือนด้วยเสียง
![]() |
ฟีเจอร์รับสายหรือฟังเสียงแทนผู้ใช้เมื่อสายไม่ว่าง เรียกว่า Hold Assist ภาพ: Apple |
นี่เป็นฟีเจอร์ที่ยอดเยี่ยมมาก และผู้ใช้หลายคนเรียกร้องให้ Apple นำมาไว้ใน iPhone ซึ่งก็เป็นจริงเมื่อ Apple เปิดตัวเวอร์ชันที่คล้ายกันชื่อว่า Hold Assist
Apple ระบุว่า เมื่อถูกพักสาย ผู้ใช้สามารถพักสาย iPhone ไว้เงียบๆ ระหว่างที่กลับไปทำงานต่อได้ เมื่อพนักงานรับสายว่าง ผู้ใช้จะได้รับการแจ้งเตือนเพื่อให้โทรกลับ
ในที่สุด ฟีเจอร์ที่เคยมีในรุ่น Pixel มาก่อนที่เรียกว่า Google Call Screen จะใช้ AI และขอให้ผู้โทรเปิดเผยชื่อและเหตุผลในการโทรก่อนที่จะวางสาย
ตอนนี้ Apple มีฟีเจอร์ที่คล้ายกันนี้ชื่อว่า Call Screening ซึ่งช่วยให้ผู้ใช้หลีกเลี่ยงสิ่งรบกวนต่างๆ คล้ายกับ Google Call Screen ระบบจะรวบรวมข้อมูลเกี่ยวกับผู้โทรและให้รายละเอียดที่จำเป็นแก่ผู้ใช้เพื่อตัดสินใจว่าควรรับสายหรือไม่
Hold Assist, Live Translation และ Call Screening ถือเป็นฟีเจอร์ที่มีประโยชน์บน Android และผู้ใช้ iPhone จำนวนมากต่างรอคอยมายาวนาน
ตามที่นักข่าว ของ PhoneArena อย่าง Alan Friedman กล่าว ฟีเจอร์ AI ทั้งสามนี้แสดงให้เห็นถึงความแตกต่างระหว่าง Google และ Apple เมื่อพูดถึงระบบปฏิบัติการของทั้งสอง
ด้วยเหตุนี้ Android จึงได้รับการปรับปรุงเพื่อยกระดับประสบการณ์การใช้งาน Apple เลือกที่จะรอก่อนที่จะเพิ่มฟีเจอร์ใหม่ๆ ที่มีประโยชน์เหล่านี้ แล้วจึงค่อยตั้งชื่อที่คล้ายคลึงกันเล็กน้อย
“ถึงอย่างนั้น ฉันก็ยังดีใจที่ได้เห็น Apple เพิ่มฟีเจอร์เหล่านี้ให้กับ iOS และแทบรอไม่ไหวที่จะใช้งานมัน” ฟรีดแมนกล่าว
ที่มา: https://znews.vn/apple-lai-hoc-android-post1559633.html
การแสดงความคิดเห็น (0)