Pessoal SOBRE NÓS Presença | 7 / 10 |
Autoridade | 5 / 10 |
Perícia | 7 / 10 |
Influenciar | 6 / 10 |
Classificação geral | 6 / 10 |
Dan Hendrycks foi orientado por Dawn Song e Jacob Steinhardt enquanto fazia seu doutorado na UC Berkeley. Atualmente, ele atua como diretor do Center for AI Safety. A segurança da IA interessa a Dan Hendrycks, que se formou na UChicago com bacharelado. A Open Philanthropy AI Fellowship e a NSF GRFP financiam seu estudo. Ele fez contribuições para os benchmarks de mudança de distribuição, a linha de base de detecção fora de distribuição e a função de ativação GELU – a ativação mais popular em modelos de ponta como BERT, GPTe Transformadores de Visão, entre outros.
Dan Hendrycks acredita que há várias maneiras pelas quais a tecnologia pode exterminar a humanidade. Ele disse que um ator mal-intencionado pode obter acesso a uma iteração futura de IA generativa, pedir orientação sobre a criação de uma arma biológica e causar estragos. Alternativamente, disse ele, a eficácia da IA pode obrigar a uma ampla adopção corporativa, subjugando toda a economia no processo; por outro lado, pode exacerbar a propagação de informações falsas e enganosas.
De acordo com Hendrycks, há uma chance muito real de que a humanidade acabe. “Se eu perceber que a coordenação internacional não acontece, ou grande parte dela, será mais provável que sejamos extintos”, afirmou.
As divulgações por meio de registros 13F revelam investidores institucionais notáveis que se envolvem em ETFs Bitcoin, ressaltando uma aceitação crescente de ...
Saber MaisChangpeng Zhao está prestes a ser condenado hoje em um tribunal dos EUA em Seattle.
Saber Mais