Entrevista O negócio Inovadora
20 de janeiro de 2026

Da gestão do risco à responsabilidade: Ahmad Shadid sobre a criação de fluxos de trabalho de desenvolvimento seguros com auxílio de IA.

Em Breve

A "codificação por vibração" está se proliferando, mas especialistas alertam que as ferramentas tradicionais representam riscos de segurança e confidencialidade para o código corporativo, destacando a necessidade de soluções de "IA confidencial" criptografadas e com suporte de hardware.

Da gestão do risco à responsabilidade: Ahmad Shadid sobre a criação de fluxos de trabalho de desenvolvimento seguros com auxílio de IA.

Nos últimos meses, a "codificação intuitiva" — um fluxo de trabalho que prioriza a inteligência artificial, no qual os desenvolvedores utilizam grandes modelos de linguagem (LLMs) e ferramentas de agentes para gerar e refinar software — ganhou força. Ao mesmo tempo, diversos relatórios do setor destacaram que, embora o código gerado por IA ofereça velocidade e conveniência, ele frequentemente introduz sérios riscos de segurança e para a cadeia de suprimentos.

veracode Pesquisas revelaram que quase metade do código produzido por LLMs contém vulnerabilidades críticas, com modelos de IA frequentemente gerando implementações inseguras e ignorando problemas como falhas de injeção ou autenticação fraca, a menos que sejam explicitamente solicitados. Um estudo recente estudo acadêmico Também observou que as "habilidades" modulares de IA em sistemas baseados em agentes podem conter vulnerabilidades que podem permitir a escalada de privilégios ou expor as cadeias de fornecimento de software.

Além da insegurança nos resultados, existe um risco sistêmico de confidencialidade frequentemente negligenciado. Os assistentes de codificação de IA atuais processam código interno sensível e propriedade intelectual em ambientes de nuvem compartilhados, onde provedores ou operadores podem acessar os dados durante a inferência. Isso levanta preocupações sobre a exposição em larga escala de código de produção proprietário, o que representa um problema considerável tanto para desenvolvedores individuais quanto para grandes empresas.

Em uma entrevista exclusiva com MPost, Ahmad Shadid, Fundador da OLLM—a iniciativa de infraestrutura de IA confidencial—explicou por que as ferramentas tradicionais de codificação de IA são inerentemente arriscadas para bases de código corporativas e como a IA confidencial, que mantém os dados criptografados mesmo durante o processamento do modelo, oferece um caminho viável para uma codificação segura e responsável no desenvolvimento de software do mundo real.

O que acontece com o código empresarial sensível em assistentes de codificação de IA e por que isso é arriscado?

A maioria das ferramentas de codificação atuais só consegue proteger os dados até certo ponto. O código corporativo geralmente é criptografado durante o envio para os servidores do provedor, normalmente por meio de TLS. Mas, assim que o código chega a esses servidores, ele é descriptografado na memória para que o modelo possa lê-lo e processá-lo. Nesse ponto, detalhes sensíveis, como lógica proprietária, APIs internas e informações de segurança, ficam expostos. apresentado Em texto simples no sistema. E é aí que reside o risco.

O código pode passar por registros internos, memória temporária ou sistemas de depuração que são difíceis de serem visualizados ou auditados pelos clientes durante a descriptografia. Mesmo que um provedor garanta que nenhum dado seja salvo, a exposição ainda ocorre durante o processamento, e essa pequena janela de tempo é suficiente para criar pontos cegos. Para empresas, isso representa um risco potencial de exposição de código sensível a uso indevido sem controle proprietário.

Por que você acredita que as ferramentas de programação de IA convencionais são fundamentalmente inseguras para o desenvolvimento empresarial? 

A maioria das ferramentas de codificação de IA mais populares não são projetadas para modelos de risco corporativos; elas otimizam apenas velocidade e conveniência, pois são treinadas principalmente em repositórios públicos que contêm vulnerabilidades conhecidas, padrões desatualizados e configurações padrão inseguras. Como resultado, o código que produzem normalmente apresenta vulnerabilidades a menos que seja submetido a um exame e correção minuciosos.

Mais importante ainda, essas ferramentas operam sem estruturas formais de governança, portanto, não impõem padrões de segurança internos na fase inicial, o que cria uma desconexão entre a forma como o software é programado e como é posteriormente auditado ou protegido. Isso acaba fazendo com que as equipes se acostumem a trabalhar com resultados que mal compreendem, enquanto as deficiências de segurança aumentam silenciosamente. Essa combinação de falta de transparência e implicações técnicas torna o suporte a padrões praticamente impossível para organizações que atuam em áreas onde a segurança é prioridade.

Se os fornecedores não armazenam nem treinam com o código do cliente, por que isso não é suficiente e quais garantias técnicas são necessárias?

Garantir políticas é bem diferente de garantir garantias técnicas. Os dados do usuário ainda são descriptografados e processados ​​durante a computação, mesmo quando os provedores garantem que não haverá retenção. Logs temporários durante processos de depuração ainda podem criar brechas de segurança que as políticas não são capazes de prevenir ou comprovar. Do ponto de vista de risco, confiança sem verificação não é suficiente.

As empresas devem se concentrar em promessas que podem ser estabelecidas no nível da infraestrutura. Isso inclui ambientes de computação confidenciais onde o código não é criptografado apenas durante a transferência, mas também durante o uso. Um ótimo exemplo disso é o hardware com suporte de criptografia. ambiente de execução confiável, que cria um ambiente criptografado onde nem mesmo o operador da infraestrutura pode acessar o código sensível. O modelo processa dados nesse ambiente seguro, e a atestação remota permite que as empresas verifiquem criptograficamente se essas medidas de segurança estão ativas.

Esses mecanismos deveriam ser um requisito básico, pois transformam a privacidade em uma propriedade mensurável e não apenas em uma promessa.

Executar IA localmente ou em uma nuvem privada resolve completamente os riscos de confidencialidade?

Executar IA em uma nuvem privada ajuda a reduzir alguns riscos, mas não resolve o problema. Os dados continuam muito visíveis e vulneráveis ​​durante o processamento, a menos que proteções adicionais sejam implementadas. Consequentemente, acessos internos, configurações inadequadas e movimentação dentro da rede ainda podem levar a vazamentos.

O comportamento do modelo é outra preocupação. Embora os sistemas privados registrem entradas ou armazenem dados para testes, sem um isolamento robusto, esses riscos permanecem. As equipes de negócios ainda precisam de processamento criptografado. Implementar controle de acesso baseado em hardware e estabelecer limites claros para o uso de dados são essenciais para proteger os dados com segurança. Caso contrário, essas medidas apenas evitam o risco, mas não o resolvem.

O que significa, na prática, "IA confidencial" para ferramentas de programação?

A Inteligência Artificial Confidencial refere-se a sistemas que gerenciam a segurança dos dados durante a computação. Ela permite que os dados sejam processados ​​em um enclave isolado, como ambientes de execução confiáveis ​​baseados em hardware, mas em texto não criptografado para que o modelo possa trabalhar com eles. A aplicação do isolamento por hardware garante que os dados sejam inacessíveis ao operador da plataforma, ao sistema operacional do host ou a qualquer terceiro, ao mesmo tempo que proporciona uma privacidade criptograficamente verificável, sem afetar a capacidade funcional da IA.

Isso muda completamente o modelo de confiança para plataformas de programação, pois permite que os desenvolvedores usem IA sem enviar lógica proprietária para sistemas compartilhados ou públicos. O processo também aprimora a transparência e a responsabilidade, já que os limites de acesso são definidos por hardware, e não por políticas. Algumas tecnologias vão além, combinando computação criptografada com rastreamento histórico, de modo que os resultados possam ser verificados sem revelar as entradas.

Embora o termo pareça abstrato, a implicação é simples: a assistência por IA não exige mais que as empresas sacrifiquem a confidencialidade em prol da eficácia.

Quais são as desvantagens ou limitações do uso de IA confidencial atualmente?

A maior desvantagem hoje em dia é a velocidade. Sistemas de IA isolados em ambientes de execução confiáveis ​​podem uma experiência Existe um certo atraso em comparação com estruturas desprotegidas, simplesmente como resultado da criptografia de memória em nível de hardware e da verificação de atestado. A boa notícia é que o hardware mais recente está reduzindo essa diferença com o tempo.

Além disso, são necessários mais ajustes e planejamento adequado, já que os sistemas precisam operar em ambientes mais restritos. O custo também deve ser levado em consideração. A IA confidencial muitas vezes precisa de hardware especial — chips especializados como o NVIDIA H100 e o H200, por exemplo — e ferramentas, o que pode aumentar os custos iniciais. Mas os custos devem ser ponderados em relação aos danos potenciais que podem advir de vazamentos de código ou do não cumprimento das regulamentações.

A IA confidencial ainda não é um requisito universal de sistema, portanto, as equipes devem utilizá-la onde a privacidade e a responsabilidade são mais importantes. Muitas dessas limitações serão superadas.

Você acha que os órgãos reguladores ou as normas em breve exigirão que as ferramentas de IA mantenham todos os dados criptografados durante o processamento?

Marcos regulatórios como a Lei de IA da UE e a Estrutura de Gestão de Riscos de IA do NIST dos EUA já estão fortemente em vigor. enfatizar sobre gestão de riscos, proteção de dados e responsabilização para sistemas de IA de alto impacto. À medida que essas estruturas se desenvolvem, sistemas que expõem dados sensíveis por concepção tornam-se mais difíceis de justificar sob as expectativas de governança estabelecidas.

Os grupos de padronização também estão lançando as bases, estabelecendo regras mais claras sobre como a IA deve lidar com os dados durante o uso. Essas regras podem ser implementadas em ritmos diferentes em cada região. Ainda assim, as empresas devem esperar mais pressão sobre os sistemas que processam dados em texto não criptografado. Dessa forma, a IA confidencial deixa de ser uma questão de adivinhar o futuro e passa a ser uma forma de acompanhar a direção que a regulamentação já está tomando.

Como é, atualmente, a "programação com responsabilidade e bom senso" para desenvolvedores e líderes de TI?

Programar de forma responsável significa, simplesmente, ser responsável por cada linha de código, desde a revisão de sugestões de IA até a validação de implicações de segurança, além de considerar todos os casos extremos em cada programa. Para as organizações, isso exige uma abordagem clara. defiDefinição de políticas sobre aprovação de ferramentas específicas e caminhos seguros para código sensível, garantindo que as equipes compreendam tanto os pontos fortes quanto as limitações da assistência de IA.

Para os órgãos reguladores e líderes do setor, a tarefa consiste em criar regras claras que permitam às equipes identificar facilmente quais ferramentas são permitidas e onde podem ser utilizadas. Dados sensíveis devem ser permitidos apenas em sistemas que obedeçam aos requisitos de privacidade e conformidade, além de treinar operadores e usuários para que compreendam o poder da IA ​​e suas limitações. A IA economiza tempo e esforço quando bem utilizada, mas também acarreta riscos dispendiosos se usada de forma descuidada.

Olhando para o futuro, como você prevê a evolução dos assistentes de codificação de IA em relação à segurança?

As ferramentas de codificação com IA evoluirão de meras recomendações para a verificação do código à medida que é escrito, respeitando regras, bibliotecas autorizadas e restrições de segurança em tempo real.

A segurança, na medida em que importa, também será incorporada de forma mais profunda ao funcionamento dessas ferramentas, projetando a execução criptografada e registros claros de tomada de decisão como recursos padrão. Com o tempo, isso transformará os assistentes de IA de riscos em ferramentas de apoio ao desenvolvimento seguro. Os melhores sistemas serão aqueles que combinarem velocidade com controle. E a confiança será determinada pelo funcionamento das ferramentas, não pela promessa dos desenvolvedores.

Aviso Legal

Em linha com a Diretrizes do Projeto Trust, observe que as informações fornecidas nesta página não se destinam e não devem ser interpretadas como aconselhamento jurídico, tributário, de investimento, financeiro ou qualquer outra forma. É importante investir apenas o que você pode perder e procurar aconselhamento financeiro independente se tiver alguma dúvida. Para mais informações, sugerimos consultar os termos e condições, bem como as páginas de ajuda e suporte fornecidas pelo emissor ou anunciante. MetaversePost está comprometida com relatórios precisos e imparciais, mas as condições de mercado estão sujeitas a alterações sem aviso prévio.

Sobre o autor

Alisa, jornalista dedicada do MPost, é especializada em criptomoedas, provas de conhecimento zero, investimentos e no vasto reino de Web3. Com um olhar atento às tendências e tecnologias emergentes, ela oferece uma cobertura abrangente para informar e envolver os leitores no cenário em constante evolução das finanças digitais.

Mais artigos
Alice Davidson
Alice Davidson

Alisa, jornalista dedicada do MPost, é especializada em criptomoedas, provas de conhecimento zero, investimentos e no vasto reino de Web3. Com um olhar atento às tendências e tecnologias emergentes, ela oferece uma cobertura abrangente para informar e envolver os leitores no cenário em constante evolução das finanças digitais.

Hot Stories
Junte-se ao nosso boletim informativo.
Últimas notícias

A Calmaria Antes da Tempestade de Solana: O Que os Gráficos, Baleias e Sinais On-Chain Estão Dizendo Agora

Solana demonstrou um forte desempenho, impulsionado pela crescente adoção, interesse institucional e parcerias importantes, ao mesmo tempo em que enfrenta potenciais...

Saber Mais

Criptomoedas em abril de 2025: Principais tendências, mudanças e o que vem a seguir

Em abril de 2025, o espaço criptográfico se concentrou no fortalecimento da infraestrutura principal, com o Ethereum se preparando para o Pectra...

Saber Mais
Saiba Mais
Ler mais
A HSC Asset Management encerra a edição de Hong Kong, apresentando insights que impulsionam a participação institucional. Web3 E tecnologias emergentes
Featured Temporadas de hackers O negócio Estilo de vida Mercados Relatório de notícias Inovadora
A HSC Asset Management encerra a edição de Hong Kong, apresentando insights que impulsionam a participação institucional. Web3 E tecnologias emergentes
13 de fevereiro de 2026
A CertiK vence o prêmio de 'Melhor Solução de Segurança e Conformidade de 2026' no SiGMA AIBC Eurasia Awards.
Relatório de notícias Inovadora
A CertiK vence o prêmio de 'Melhor Solução de Segurança e Conformidade de 2026' no SiGMA AIBC Eurasia Awards.
13 de fevereiro de 2026
Binance, BlackRock e Ripple lideram a investida institucional em criptomoedas na segunda semana de fevereiro.
O negócio Relatório de notícias Inovadora
Binance, BlackRock e Ripple lideram a investida institucional em criptomoedas na segunda semana de fevereiro.
13 de fevereiro de 2026
O fundador da Gate, Dr. Han, fala sobre o avanço do sistema financeiro de próxima geração por meio de inteligência artificial. Web3
O negócio Relatório de notícias Inovadora
O fundador da Gate, Dr. Han, fala sobre o avanço do sistema financeiro de próxima geração por meio de inteligência artificial. Web3
13 de fevereiro de 2026
CRYPTOMERIA LABS PTE. LTDA.