โครงการ Astra อินเทอร์เฟซเชิงโต้ตอบ รูปภาพ: Google . |
ในงาน I/O 2025 ที่จัดขึ้นในช่วงเช้าของวันที่ 21 พฤษภาคม (ตามเวลาเวียดนาม) Google ได้ประกาศฟีเจอร์ใหม่หลายประการของ Project Astra Project Astra เปิดตัวครั้งแรกในปี 2024 และใช้โมเดล AI หลายโหมดในการขุดและวิเคราะห์ภาพและข้อมูลภาพแบบเรียลไทม์ นี่คือความทะเยอทะยานอันยิ่งใหญ่ของ Google ที่มีเป้าหมายที่จะทำให้ AI มีประโยชน์มากขึ้นในชีวิต
หลังจากช่วงการทดสอบ คุณสมบัติบางอย่างของ Project Astra เช่น การตอบสนองด้วยเสียง หน่วยความจำ และการคำนวณพื้นฐาน จะปรากฏบนแอป Gemini และ Google
ในระหว่างงานนี้ Google ได้สาธิตวิธีต่างๆ ที่ Astra สามารถช่วยชีวิตประจำวันได้ นอกเหนือจากการตอบคำถามและใช้กล้องเพื่อจดจำว่าวางแว่นตาไว้ที่ไหน Astra ยังสามารถทำงานต่างๆ ให้เสร็จได้โดยไม่ต้องให้ผู้ใช้ถามอีกด้วย
Greg Wayne นักวิจัยจาก DeepMind กล่าวว่า “Astra สามารถเลือกเวลาที่จะพูดได้ตามสิ่งที่เห็น โดยจะสังเกตและตอบสนองตามนั้นอย่างต่อเนื่อง”
ตามรายงานของ The Verge ฟีเจอร์ดังกล่าวสามารถเปลี่ยนวิธีการทำงานของ AI ได้ แทนที่จะรอให้ผู้ใช้เล็งกล้องและสั่งการช่วยเหลือ Astra สามารถตรวจสอบ ฟัง และช่วยเหลือโดยอัตโนมัติได้อย่างต่อเนื่องหากจำเป็น ปัจจุบัน Google มุ่งเน้นการพัฒนา Astra สำหรับสมาร์ทโฟนและแว่นตาอัจฉริยะ
เวย์นให้ตัวอย่างบางส่วนว่า Astra ทำงานอย่างไร ในระหว่างการทำการบ้าน เครื่องมือสามารถตรวจสอบและแจ้งเตือนทันทีเมื่อตรวจพบข้อผิดพลาด แทนที่จะรอให้ผู้ใช้ทำการบ้านเสร็จและขอให้ตรวจสอบ
Demis Hassabis ซีอีโอของ DeepMind กล่าวว่าการฝึก Astra ให้ดำเนินการงานต่างๆ ด้วยตัวเองนั้นเป็นหนึ่งในเทคนิคที่ยากที่สุด เขาเรียกมันว่า "การอ่านสถานการณ์" เนื่องจาก AI ต้องกำหนดว่าเมื่อใดควรช่วยเหลือ ควรยอมรับทัศนคติอย่างไร ควรช่วยเหลืออย่างไร และเมื่อใดควรนิ่งเงียบ สิ่งเหล่านี้เป็นการกระทำที่มนุษย์ทำได้ค่อนข้างดี แต่ยากที่จะวัดปริมาณและศึกษาได้
การอัปเกรดครั้งต่อไปของ Astra คือการขุดข้อมูลผู้ใช้ทั่วทั้งเว็บและผลิตภัณฑ์ของ Google ตามที่ The Verge ระบุ เครื่องมือนี้สามารถทราบตารางเวลาเพื่อแจ้งเมื่อออกจากบ้าน อ่านเนื้อหาอีเมล์และดึงข้อมูลเบอร์โทรศัพท์เมื่อเช็คอินที่โรงแรม...
![]() |
ฟีเจอร์เน้นข้อความของ Project Astra ช่วยสแกนวัตถุและเปรียบเทียบข้อมูลที่แยกออกมาจากแอปพลิเคชันอื่น รูปภาพ: Google . |
“ชิ้น” สุดท้ายของปริศนา Astra คือความสามารถในการเรียนรู้วิธีใช้โทรศัพท์ Android ในการสาธิตงานนี้ Bibo Xiu ซึ่งเป็นตัวแทนของแผนกผลิตภัณฑ์ของ DeepMind ได้ชี้กล้องโทรศัพท์ไปที่ชุดหูฟังของ Sony และขอให้ Astra ระบุรุ่นของหูฟัง
หลังจากที่ Astra ตอบว่าหูฟังนั้นน่าจะเป็น Sony WH-1000XM4 หรือ WH-1000XM3 แล้ว Xiu ก็ยังคงถามเครื่องมือหาคู่มือการใช้งานต่อไป จากนั้นก็อธิบายวิธีเชื่อมต่อกับโทรศัพท์ หลังจากที่ Astra ให้คำแนะนำแล้ว Xiu ก็เข้ามาขัดจังหวะและขอให้ Chatbot เชื่อมต่อให้กับเขา ทันทีที่ Astra เปิดการตั้งค่าและดำเนินการเอง
กระบวนการนี้ไม่ราบรื่นนัก เนื่องจาก Xiu ต้องอนุญาตให้ Astra ตรวจสอบหน้าจอโทรศัพท์ ในอนาคต Google ตั้งเป้าให้ Chatbots สามารถตรวจสอบหน้าจอได้โดยอัตโนมัติ
ใน วิดีโอ Google อีกวิดีโอหนึ่ง ผู้ใช้คนหนึ่งขอให้ Astra ค้นหาคู่มือจักรยาน Huffy ซึ่งจะนำไปยังหน้าเฉพาะที่มีคำแนะนำในการซ่อมชิ้นส่วนจักรยาน Astra สามารถค้นหาวิดีโอ YouTube เกี่ยวกับวิธีการถอดสกรูที่ถอดออก จากนั้นติดต่อร้านค้าที่ใกล้ที่สุดเพื่อหาชิ้นส่วนทดแทน ทุกสิ่งก็ดำเนินไปอย่างราบรื่นในการแสดง
แม้ว่า Astra จะยังไม่ได้รับการเผยแพร่อย่างแพร่หลาย แต่ Google กล่าวว่าฟีเจอร์วิเคราะห์ภาพ Gemini Live จะเปิดตัวให้กับผู้ใช้ iOS ทุกคน (ก่อนหน้านี้รองรับเฉพาะ Android เท่านั้น)
ในอนาคต AI ของ Google จะไม่เพียงแค่ทำตามคำสั่งเท่านั้น แต่ Astra จะช่วย "เข้าใจสิ่งที่สามารถมองเห็นและไม่สามารถมองเห็นได้ในขณะนี้" Xiu กล่าว
ที่มา: https://znews.vn/ai-cua-google-ngay-cang-thong-minh-post1554615.html
การแสดงความคิดเห็น (0)