Dylan Patel นักวิเคราะห์หลักจากบริษัทวิเคราะห์เซมิคอนดักเตอร์ SemiAnalysis ระบุว่าต้นทุนการดำเนินงานของ ChatGPT สูงมากเนื่องจากโครงสร้างพื้นฐานที่มีราคาแพง ChatGPT ต้องใช้พลังประมวลผลมหาศาลในการคำนวณการตอบกลับตามคำกระตุ้นของผู้ใช้ Patel ประมาณการต้นทุนโดยพิจารณาจากเซิร์ฟเวอร์ราคาแพงที่จำเป็นในการรันแชทบ็อต
ในบทสัมภาษณ์กับ BI ผู้เชี่ยวชาญแนะนำว่าต้นทุนปัจจุบันน่าจะสูงกว่านี้ เนื่องจากการประเมินเบื้องต้นของเขาอิงตามโมเดล GPT-3 ของ OpenAI โดยโมเดลล่าสุดคือ GPT-4 ซึ่งจะมีราคาแพงกว่า
แม้ว่าการฝึกโมเดลภาษาขนาดใหญ่ (LLM) ของ ChatGPT จะมีค่าใช้จ่ายหลายสิบล้านดอลลาร์ แต่ค่าใช้จ่ายในการดำเนินการหรือการอนุมานนั้นสูงกว่ามาก เป็นเวลาหลายปีที่บริษัทต่างๆ ที่ใช้โมเดลภาษาของ OpenAI ต้องจ่ายเงินเป็นจำนวนมาก ตัวอย่างเช่น Nick Walton ซีอีโอของ Latitude ซึ่งเป็นสตาร์ทอัพ ได้เปิดเผยว่าต้นทุนในการรันโมเดลกับเซิร์ฟเวอร์ Amazon Web Services อยู่ที่ประมาณ 200,000 ดอลลาร์ต่อเดือนในปี 2021 ดังนั้น เขาจึงเปลี่ยนไปใช้ผู้ให้บริการซอฟต์แวร์ภาษาอื่นเพื่อลดต้นทุนลงครึ่งหนึ่ง
เพื่อลดต้นทุนที่จำเป็นในการรันโมเดล AI แบบสร้างสรรค์ Microsoft จึงพัฒนาชิป AI ที่เรียกว่า Athena ตามรายงานของ The Information โปรเจ็กต์นี้เริ่มต้นขึ้นในปี 2019 ไม่กี่ปีหลังจากที่บริษัทลงนามข้อตกลงมูลค่า 1 พันล้านดอลลาร์กับ OpenAI เพื่อให้สตาร์ทอัพใช้เฉพาะเซิร์ฟเวอร์คลาวด์ Azure เท่านั้น
Microsoft กำลังผลักดันสองสิ่ง: ตระหนักว่ากำลังตามหลัง Google และ Amazon ในพื้นที่ชิป และกำลังมองหาทางเลือกที่ถูกกว่าชิปของ Nvidia พนักงานของ Microsoft กว่า 300 คนกำลังทำงานเกี่ยวกับชิปดังกล่าว และชิปดังกล่าวอาจพร้อมให้ใช้งานภายในได้เร็วที่สุดภายในปีหน้า
(ตามข้อมูลของ BI)
แหล่งที่มา
การแสดงความคิดเห็น (0)