Vietnam.vn - Nền tảng quảng bá Việt Nam

Apple이 구형 iPhone에 합성 AI를 탑재하는 방법

Báo Thanh niênBáo Thanh niên23/12/2023

[광고_1]

Android Authority 에 따르면, Apple의 연구 논문은 RAM이 제한된 기기에서 대용량 언어 모델(LLM)을 실행하는 솔루션을 자세히 설명합니다. 이 논문은 Apple이 전체 모델을 RAM에 로드하는 대신, "모델 매개변수"를 저장하고 필요에 따라 일부만 기기의 RAM에 로드하는 방법을 보여줍니다.

Cách Apple đưa AI tổng hợp vào iPhone đời cũ- Ảnh 1.

Apple은 RAM이 적은 구형 iPhone에서 일반 AI를 실행할 수 있도록 지원하려고 합니다.

이 논문에서는 이 방법을 사용하면 CPU와 GPU에서 각각 간단한 로딩 방법에 비해 4~5배와 20~25배의 추론 속도를 보장하면서도 iPhone이 가질 수 있는 RAM의 두 배에 해당하는 모델을 실행할 수 있다고 주장합니다.

RAM이 더 많은 기기에 합성 AI를 배포하면 읽기/쓰기 속도가 빨라져 큰 이점을 얻을 수 있습니다. 온디바이스 AI에서는 속도가 중요한데, 사용자가 응답이나 최종 결과를 얻기 위해 수십 초(혹은 그 이상)를 기다릴 필요가 없기 때문에 추론 시간이 훨씬 빨라집니다. 이 모든 것은 온디바이스 AI 비서가 대화 속도로 실행되고, 이미지/텍스트를 훨씬 빠르게 생성하고, 기사를 더 빠르게 요약할 수 있음을 의미합니다. 하지만 Apple의 솔루션은 사용자가 온디바이스 AI 작업 응답 속도를 높이기 위해 반드시 많은 RAM이 필요하지 않다는 것을 의미합니다.

Apple의 접근 방식은 구형 iPhone과 신형 iPhone 모두 기기에서 바로 합성 AI 기능을 제공할 수 있도록 할 수 있습니다. 이는 Apple iPhone이 일반적으로 고급 Android 휴대폰보다 RAM 용량이 적기 때문에 중요합니다. 예를 들어 iPhone 11 시리즈는 RAM 용량이 4GB에 불과하고, 보급형 iPhone 15조차도 6GB에 불과합니다.

LLM 축소를 추진하는 모바일 기업은 애플뿐만이 아닙니다. 퀄컴과 미디어텍의 최신 플래그십 칩은 모두 INT4 정밀도를 지원하여 이러한 모델의 크기를 줄입니다. 어느 쪽이든 기업들은 온디바이스 AI의 시스템 요구 사항을 줄여 저가형 휴대폰에서도 이 기능을 제공할 수 있도록 새로운 방법을 모색하고 있습니다.


[광고_2]
소스 링크

댓글 (0)

No data
No data

같은 태그

같은 카테고리

2024년 미스 베트남 우승자, 푸옌(Phu Yen) 출신 소녀 Ha Truc Linh
DIFF 2025 - 다낭 여름 관광 시즌 폭발적 성장
태양을 따라가다
투란의 장엄한 동굴 호

같은 저자

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품