Vietnam.vn - Nền tảng quảng bá Việt Nam

Como a Apple coloca IA sintética em iPhones mais antigos

Báo Thanh niênBáo Thanh niên23/12/2023

[anúncio_1]

Segundo o Android Authority , um artigo de pesquisa da Apple detalha uma solução para executar grandes modelos de linguagem (LLMs) em dispositivos com memória RAM limitada. O artigo revela como a empresa pode armazenar "parâmetros do modelo" e carregar uma parte deles na RAM do dispositivo quando necessário, em vez de carregar o modelo inteiro na RAM.

Cách Apple đưa AI tổng hợp vào iPhone đời cũ- Ảnh 1.

A Apple pretende ajudar iPhones mais antigos com menos RAM a executar inteligência artificial geral.

O artigo afirma que esse método permite executar modelos que exigem o dobro da RAM que um iPhone pode ter, garantindo ainda velocidades de inferência de 4 a 5 vezes e de 20 a 25 vezes maiores em comparação com métodos de carregamento simples na CPU e na GPU, respectivamente.

Implementar IA sintética em um dispositivo com mais RAM seria extremamente vantajoso, pois permitiria velocidades de leitura/gravação mais rápidas. A velocidade é crucial para a IA no dispositivo, possibilitando tempos de inferência muito mais rápidos, já que os usuários não precisariam esperar dezenas de segundos (ou mais) por uma resposta ou resultado final. Tudo isso significa que um assistente de IA no dispositivo poderia potencialmente funcionar em velocidades conversacionais, gerar imagens/texto muito mais rapidamente, resumir artigos com maior agilidade, etc. A solução da Apple, no entanto, significa que os usuários não precisam necessariamente de muita RAM para acelerar a capacidade de resposta das tarefas de IA no dispositivo.

A abordagem da Apple pode permitir que iPhones, tanto antigos quanto novos, ofereçam recursos de IA sintética diretamente em seus dispositivos. Isso é importante porque os iPhones da Apple geralmente oferecem menos RAM do que os celulares Android de última geração. A série iPhone 11, por exemplo, oferece apenas 4 GB de RAM, enquanto até mesmo o iPhone 15 padrão tem apenas 6 GB.

A Apple não é a única empresa de dispositivos móveis trabalhando na miniaturização do LLM. Os chips topo de linha recentes da Qualcomm e da MediaTek suportam precisão INT4 para reduzir esses modelos. De qualquer forma, as empresas estão buscando novas maneiras de reduzir os requisitos de sistema para IA embarcada, permitindo que até mesmo celulares de baixo custo ofereçam o recurso.



Link da fonte

Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Planalto de Pedra de Dong Van - um raro 'museu geológico vivo' no mundo
Veja a cidade costeira do Vietnã se tornar um dos principais destinos do mundo em 2026
Admire 'Ha Long Bay em terra' acaba de entrar no topo dos destinos favoritos do mundo
Flores de lótus 'tingindo' Ninh Binh de rosa vista de cima

Do mesmo autor

Herança

Figura

Negócios

Prédios altos na Cidade de Ho Chi Minh estão envoltos em neblina.

Eventos atuais

Sistema político

Local

Produto