CEO da Tether: Modelos eficientes reduzem custos de treinamento, inferência local e de borda tornam-se tendências
Em 27 de janeiro, o CEO da Tether, Paolo Ardoino, tuitou que treinar modelos poderosos não exigirá mais milhões de GPUs no futuro. Este método de depender puramente de computação de força bruta é tanto ineficiente quanto inelegante. Modelos melhores reduzirão significativamente os custos de treinamento, enquanto a aquisição de dados continua sendo fundamental. A inferência se deslocará para dispositivos locais ou de borda, evitando o desperdício de centenas de bilhões de dólares apenas em poder computacional puro.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez você também goste
A receita da Hyperliquid nos últimos 7 dias superou a do Ethereum e ficou em sétimo lugar
Degen: A reivindicação da Temporada 4 de Raindrop está agora disponível