Pessoal SOBRE NÓS Presença | 6 / 10 |
Autoridade | 8 / 10 |
Perícia | 9 / 10 |
Influenciar | 6 / 10 |
Classificação geral | 7 / 10 |
O empresário, cientista da computação, investidor e escritor Kai-Fu Lee é de Taiwan. No momento, Pequim, na China, é a sua base. Para sua tese de doutorado na Universidade Carnegie Mellon, Lee criou um sistema de reconhecimento de voz contínuo e independente do locutor. Posteriormente, ocupou cargos seniores na Apple, SGI, Microsoft e Google. Em 2000, quando foi promovido a vice-presidente corporativo de serviços interativos da Microsoft, assinou um acordo de não concorrência de um ano. Este acordo tornou-se objeto de uma disputa legal em 2005 entre o Google e a Microsoft, seu antigo empregador.
Ele trabalha na indústria chinesa da Internet. De 1998 a 2000, foi diretor fundador da Microsoft Research Asia. De julho de 2005 a 4 de setembro de 2009, foi presidente do Google China. Ele fundou a empresa de capital de risco Sinovation Ventures após deixar seu cargo. Além de escrever “10 Cartas para Estudantes Universitários Chineses”, ele fundou o site WǒxuéwĎng (chinês: 我学网; lit. “I-Learn Web”) com o objetivo de ajudar os jovens chineses em seus empreendimentos acadêmicos e profissionais. Ele é um microblogger chinês com mais de 50 milhões de seguidores no Sina Weibo, em particular.
Lee fundou a 01.AI no final de março com o objetivo de criar internamente um importante modelo de linguagem para o mercado chinês. Ele competirá com outros titãs tecnológicos chineses conhecidos, como Wang Xiaochuan, o criador do Sogou, que vem acumulando talentos e financiamento de risco para construir o mercado chinês. OpenAI-como empresas bastante rapidamente.
O tremendo avanço no campo da IA generativa reflete-se na expansão da IA. A empresa entregou seu primeiro modelo, o Yi-34B de código aberto, sete meses após sua fundação. Lee explicou que a escolha de lançar um LLM aberto como seu primeiro produto foi uma tentativa de “retribuir” à comunidade. “Oferecemos uma alternativa convincente”, continuou ele, para aqueles que acreditaram LLaMA é uma “dádiva de Deus” para eles.
No momento em que este livro foi escrito, o principal modelo LLM pré-treinado de acordo com uma classificação da Hugging Face é o Yi-34B, um modelo básico multilíngue (inglês e chinês) treinado com 34 bilhões de parâmetros e muito menor do que outros modelos abertos como Falcon-180B e meta LlaMa2-70B.
As divulgações por meio de registros 13F revelam investidores institucionais notáveis que se envolvem em ETFs Bitcoin, ressaltando uma aceitação crescente de ...
Saber MaisChangpeng Zhao está prestes a ser condenado hoje em um tribunal dos EUA em Seattle.
Saber Mais