Pessoal SOBRE NÓS Presença | 7 / 10 |
Autoridade | 6 / 10 |
Perícia | 8 / 10 |
Influenciar | 5 / 10 |
Classificação geral | 6 / 10 |
A contribuição mais conhecida para a popularização de conceitos em torno de inteligência artificial é a hipótese de que pode não haver um “alarme de incêndio” para a IA. Eliezer S. Yudkowsky é um pesquisador americano de inteligência artificial e autor de livros sobre teoria e ética da decisão. Ele fundou o Machine Intelligence Research Institute (MIRI), uma organização de pesquisa privada sem fins lucrativos com sede em Berkeley, Califórnia, e atua como pesquisador lá. O livro Superinteligência: Caminhos, Perigos, Estratégias de 2014, do filósofo Nick Bostrom, foi informado por sua pesquisa sobre a possibilidade de uma explosão descontrolada de inteligência.
Em um artigo de 2023, Yudkowsky abordou os perigos da inteligência artificial em um artigo de opinião para a revista Time. Ele sugeriu medidas para reduzir esse risco, como “destruir um datacenter não autorizado por meio de um ataque aéreo” ou interromper completamente a pesquisa e o desenvolvimento de IA. Um repórter questionou o presidente Joe Biden sobre a segurança da IA durante uma coletiva de imprensa após ler a história, o que contribuiu para popularizar a discussão sobre o alinhamento da IA.
As divulgações por meio de registros 13F revelam investidores institucionais notáveis que se envolvem em ETFs Bitcoin, ressaltando uma aceitação crescente de ...
Saber MaisChangpeng Zhao está prestes a ser condenado hoje em um tribunal dos EUA em Seattle.
Saber Mais