A Google prepara exames de contratação que permitem aos engenheiros usar ferramentas de IA

De acordo com o The Chosun Daily, o Google está a fazer testes a exames de recrutamento que permitem que candidatos a engenheiros de software nos EUA usem ferramentas de IA em posições selecionadas de nível de entrada e intermédio. O ensaio inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores irão avaliar a forma como os candidatos orientam a IA, verificam o resultado, editam os resultados e fazem debug do código, em vez de avaliarem apenas a capacidade de escrever código do zero.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A OpenAI interrompe a API de fine-tuning com efeito imediato; os utilizadores existentes podem aceder até 6 de janeiro de 2027

De acordo com o anúncio oficial da OpenAI monitorizado pela Beating, a empresa está a descontinuar a sua API de Fine-tuning self-serve para programadores com efeitos imediatos. Os novos utilizadores já não podem criar tarefas de fine-tuning, enquanto os utilizadores ativos existentes podem aceder ao serviço até 6 de janeiro de 2027. Os modelos fine-tuned já implementados terão os seus serviços de inferência associados ao ciclo de vida dos modelos base, cessando quando o modelo base for descontin

GateNews1h atrás

Sakana AI e Nvidia alcançam uma inferência H100 30% mais rápida ao ignorar 80% dos cálculos inválidos

A Sakana AI e a Nvidia disponibilizaram em open source o TwELL, um formato de dados esparso que permite que as GPUs H100 saltem 80% dos cálculos inválidos em modelos de linguagem grandes sem comprometer a precisão. A solução proporciona até 30% de inferência mais rápida e 24% de treino mais rápido nas H100, ao mesmo tempo que reduz o uso de memória de pico. Em testes num modelo com 1,5 mil milhões de parâmetros, a abordagem baixou os neurónios ativos para menos de 2% através de regularização lev

GateNews2h atrás

A Microsoft disponibiliza em open-source o modelo Phi-Ground 4B, com desempenho superior ao do OpenAI Operator e do Claude na precisão de cliques no ecrã

Segundo a Beating, a Microsoft lançou recentemente de forma open-source a família de modelos Phi-Ground, concebida para resolver o problema de onde a IA deve clicar num ecrã de computador. A versão com 4 mil milhões de parâmetros, emparelhada com modelos de linguagem maiores para planeamento de instruções, superou a precisão de cliques do OpenAI Operator e do Claude Computer Use no benchmark Showdown e ficou em primeiro lugar entre todos os modelos com menos de 100 mil milhões de parâmetros, em

GateNews2h atrás

A Tilde Research descobre que o otimizador Muon mata 25% dos neurónios; a alternativa Aurora atinge um ganho de eficiência de dados de 100x

De acordo com a Tilde Research, o optimizador Muon adoptado por modelos de IA de topo, incluindo o DeepSeek V4 e o Kimi K2.5, tem uma falha oculta: faz com que mais de 25% dos neurónios da camada MLP morram permanentemente durante o treino inicial. A equipa concebeu a Aurora, um optimizador alternativo, e disponibilizou-a como open-source. Um modelo com 1,1B parâmetros treinado com apenas 100B tokens atingiu o desempenho do Qwen3-1,7B treinado com 36T tokens em benchmarks de compreensão de lingu

GateNews3h atrás

A Nvidia compromete mais de 40 mil milhões de dólares em investimentos em IA no início de 2026, incluindo 30 mil milhões de dólares para a OpenAI

De acordo com a TechCrunch, a Nvidia comprometeu mais de 40 mil milhões de dólares em investimentos de capital em empresas de IA nos primeiros meses de 2026, com um investimento de 30 mil milhões de dólares na OpenAI como o maior compromisso único. O fabricante de chips também prometeu até 3,2 mil milhões de dólares ao grupo Corning e até 2,1 mil milhões de dólares à operadora de centros de dados IREN, o que inclui uma warrant de cinco anos e um contrato separado de 3,4 mil milhões de dólares pa

GateNews6h atrás

A Nvidia abre uma parceria de IA a longo prazo com a Deepinfra, que angaria 107 milhões de dólares na sua ronda B para criar uma «fábrica de tokens»

A startup de IA DeepInfra anunciou a conclusão de uma ronda B de 1,07 mil milhões de dólares, liderada pela 500 Global e por Georges Harik, engenheiro de início de carreira na Google, com a participação de investidores estratégicos como a NVIDIA, a Samsung Next e a Supermicro. De acordo com a informação oficial, o investimento será usado para expandir a capacidade de centros de dados globais, de modo a enfrentar os custos de computação e os estrangulamentos de eficiência que surgem quando as apl

ChainNewsAbmedia7h atrás
Comentar
0/400
Nenhum comentário