Pakikipanayam Negosyo Teknolohiya
Enero 20, 2026

Mula sa Panganib Tungo sa Responsibilidad: Ahmad Shadid Tungkol sa Pagbuo ng Ligtas na mga Daloy ng Pag-unlad na Tinutulungan ng AI

Sa madaling sabi

Lumalaganap ang "Vibe coding," ngunit nagbabala ang mga eksperto na ang mga tradisyunal na kagamitan ay nagdudulot ng mga panganib sa seguridad at pagiging kumpidensyal para sa enterprise code, na nagpapakita ng pangangailangan para sa mga naka-encrypt at hardware-backed na "confidential AI" na solusyon.

Mula sa Panganib Tungo sa Responsibilidad: Ahmad Shadid Tungkol sa Pagbuo ng Ligtas na mga Daloy ng Pag-unlad na Tinutulungan ng AI

Sa mga nakalipas na buwan, ang "vibe coding"—isang daloy ng trabaho na inuuna ng AI kung saan ginagamit ng mga developer ang malalaking modelo ng wika (LLM) at mga ahente upang makabuo at magpino ng software—ay lalong sumikat. Kasabay nito, maraming ulat sa industriya ang nagbigay-diin na habang ang AI-generated code ay nag-aalok ng bilis at kaginhawahan, kadalasan itong nagdudulot ng malubhang panganib sa seguridad at supply chain.

Vera code Natuklasan ng pananaliksik na halos kalahati ng code na ginawa ng mga LLM ay naglalaman ng mga kritikal na kahinaan, kung saan ang mga modelo ng AI ay madalas na gumagawa ng mga hindi ligtas na implementasyon at hindi napapansin ang mga isyu tulad ng mga depekto sa injection o mahinang authentication maliban kung tahasang hiniling. Isang kamakailang akademikong pag-aaral nabanggit din na ang mga modular na "kasanayan" ng AI sa mga sistemang nakabatay sa ahente ay maaaring magdala ng mga kahinaan na maaaring magbigay-daan sa pagtaas ng pribilehiyo o maglantad sa mga supply chain ng software.

Bukod sa mga hindi ligtas na output, mayroong madalas na nakaliligtaan na sistematikong panganib sa pagiging kumpidensyal. Pinoproseso ng kasalukuyang mga AI coding assistant ang sensitibong internal code at intellectual property sa loob ng mga shared cloud environment, kung saan maaaring ma-access ng mga provider o operator ang data habang nag-iintindi. Nagdudulot ito ng mga alalahanin tungkol sa paglalantad ng proprietary production code sa malawakang saklaw, na isang malaking isyu para sa mga indibidwal na developer at malalaking negosyo.

Sa isang eksklusibong panayam sa MPost, Ahmad Shadid, Nagtatag ng OLLM—ang kumpidensyal na inisyatibo sa imprastraktura ng AI—ipinaliwanag kung bakit ang mga tradisyonal na tool sa pag-coding ng AI ay likas na mapanganib para sa mga codebase ng negosyo at kung paano ang kumpidensyal na AI, na nagpapanatiling naka-encrypt ang data kahit na sa pagproseso ng modelo, ay nagbibigay ng isang mabisang landas para sa ligtas at responsableng vibe coding sa pagbuo ng software sa totoong mundo.

Ano ang nangyayari sa sensitibong enterprise code sa mga AI coding assistant, at bakit ito mapanganib?

Karamihan sa mga kasalukuyang coding tool ay maaari lamang protektahan ang data sa isang tiyak na antas. Ang enterprise code ay karaniwang naka-encrypt habang ipinapadala sa mga server ng provider, kadalasan sa pamamagitan ng TLS. Ngunit kapag dumating na ang code sa mga server na iyon, ito ay ide-decrypt sa memory upang mabasa at maproseso ito ng modelo. Sa puntong iyon, ang mga sensitibong detalye tulad ng proprietary logic, internal APIs, at mga detalye ng seguridad ay... iniharap sa simpleng teksto sa sistema. At diyan nakasalalay ang panganib.

Ang code ay maaaring dumaan sa mga internal log, pansamantalang memorya, o mga debugging system na mahirap makita o ma-audit ng mga customer habang dine-decrypt. Kahit na ginagarantiyahan ng isang provider na walang naka-save na data, nangyayari pa rin ang exposure habang pinoproseso, at ang maikling panahon na iyon ay sapat na upang lumikha ng mga blind spot. Para sa mga negosyo, lumilikha ito ng potensyal na panganib na naglalantad sa sensitibong code sa maling paggamit nang walang kontrol mula sa kanilang mga may-ari.

Bakit ka naniniwalang ang mga pangunahing kagamitan sa AI coding ay sa panimula ay hindi ligtas para sa pagpapaunlad ng negosyo? 

Karamihan sa mga sikat na AI coding tool ay hindi ginawa para sa mga enterprise risk model; ino-optimize lamang nila ang bilis at kaginhawahan dahil ang mga ito ay pangunahing sinanay sa mga pampublikong repositoryo na naglalaman ng mga kilalang kahinaan, mga lumang pattern, at mga hindi secure na default. Bilang resulta, ang code na kanilang ginagawa ay karaniwang nagpapakita ng kahinaan maliban kung ito ay sumailalim sa masusing pagsusuri at pagwawasto.

Higit sa lahat, ang mga tool na ito ay gumagana nang walang pormal na istruktura ng pamamahala, kaya hindi talaga nila ipinapatupad ang mga panloob na pamantayan ng seguridad sa maagang yugto, at lumilikha ito ng pagkakahiwalay sa pagitan ng kung paano pinoprograma ang software at kung paano ito ina-audit o pinoprotektahan sa kalaunan. Kalaunan, nagiging sanhi ito ng pagkasanay ng mga koponan sa pagtatrabaho gamit ang mga output na halos hindi nila naiintindihan, habang ang mga pagkaantala sa seguridad ay tahimik na tumataas. Ang kombinasyon ng kakulangan ng transparency at mga teknikal na implikasyon ay ginagawang halos imposible ang suporta sa pamantayan para sa mga organisasyong nagpapatakbo sa mga larangang inuuna ang kaligtasan.

Kung ang mga provider ay hindi nag-iimbak o nagsasanay sa code ng customer, bakit hindi pa iyon sapat, at anong mga teknikal na garantiya ang kinakailangan?

Ang patakaran sa pagtiyak ay ibang-iba sa mga teknikal na garantiya. Ang datos ng gumagamit ay nananatiling decrypted at pinoproseso habang nagkokompyut, kahit na tiniyak ng mga provider na walang maitatago. Ang mga pansamantalang log habang nagde-debug ay maaari pa ring lumikha ng mga leakage path na hindi kayang pigilan o patunayan ng mga patakaran para sa kaligtasan. Mula sa perspektibo ng panganib, ang tiwala nang walang beripikasyon ay hindi sapat.

Dapat na magtuon ang mga negosyo sa mga pangakong maaaring maitatag sa antas ng imprastraktura. Kabilang dito ang mga kumpidensyal na kapaligiran sa computing kung saan ang code ay hindi lamang naka-encrypt kapag inililipat kundi pati na rin habang ginagamit. Ang isang napakahusay na halimbawa ay ang hardware-backed na mapagkakatiwalaang kapaligiran sa pagpapatupad, na lumilikha ng isang naka-encrypt na kapaligiran kung saan kahit ang operator ng imprastraktura ay hindi ma-access ang sensitibong code. Pinoproseso ng modelo ang data sa ligtas na kapaligirang ito, at ang malayuang pagpapatunay ay nagbibigay-daan sa mga negosyo na i-verify sa pamamagitan ng cryptographic na paraan na aktibo ang mga hakbang sa kaligtasan na ito.

Ang mga ganitong mekanismo ay dapat maging isang pangunahing kinakailangan, dahil ginagawa nitong isang masusukat na ari-arian ang privacy at hindi lamang isang pangako.

Ganap bang nalulutas ng pagpapatakbo ng AI on-prem o sa isang pribadong cloud ang mga panganib sa pagiging kumpidensyal?

Ang pagpapatakbo ng AI sa isang pribadong cloud ay nakakatulong upang mabawasan ang ilang mga panganib, ngunit hindi nito nalulutas ang problema. Ang data ay nakikita pa rin at mahina kapag pinoproseso ito maliban kung maglalagay ng mga karagdagang proteksyon. Dahil dito, ang internal access, mahinang setup, at paggalaw sa loob ng network ay maaari pa ring humantong sa mga leak.

Ang kilos ng modelo ay isa pang alalahanin. Bagama't naglo-log ang mga pribadong sistema ng mga input o nag-iimbak ng data para sa pagsubok, kung walang matibay na paghihiwalay, nananatili ang mga panganib na ito. Kailangan pa rin ng mga pangkat ng negosyo ang naka-encrypt na pagproseso. Ang pagpapatupad ng kontrol sa pag-access na nakabatay sa hardware at pagtatatag ng malinaw na mga limitasyon sa paggamit ng data ay mahalaga para sa ligtas na pagprotekta ng data. Kung hindi, maiiwasan lamang nila ang panganib ngunit hindi ito malulutas.

Ano nga ba ang ibig sabihin ng "confidential AI" para sa mga coding tool?

Ang Confidential AI ay tumutukoy sa mga sistemang namamahala sa seguridad ng datos habang nagkokompyut. Pinapayagan nito ang pagproseso ng datos sa isang nakahiwalay na enclave, tulad ng mga hardware-based trusted execution environment, ngunit sa malinaw na teksto upang magamit ito ng modelo. Tinitiyak ng hardware isolation enforcement na hindi ito maa-access ng platform operator, ng host operating system, o anumang panlabas na partido, habang nagbibigay din ng cryptographically verifiable privacy, nang hindi naaapektuhan ang functional capacity ng AI.

Ganap nitong binabago ang modelo ng tiwala para sa mga coding platform, dahil pinapayagan nito ang mga developer na gumamit ng AI nang hindi nagpapadala ng proprietary logic sa mga shared o pampublikong sistema. Pinahuhusay din ng proseso ang malinaw na pananagutan dahil ang mga hangganan ng pag-access ay binuo ng hardware sa halip na patakaran. Ang ilang teknolohiya ay higit pa sa pamamagitan ng pagsasama-sama ng naka-encrypt na pagkalkula sa historical tracking, kaya maaaring ma-verify ang mga output nang hindi inilalantad ang mga input.

Bagama't parang abstrakto ang tunog ng termino, simple lang ang implikasyon: Hindi na hinihiling ng tulong sa AI na isakripisyo ng mga negosyo ang pagiging kumpidensyal para sa bisa.

Ano ang mga kompromiso o limitasyon ng paggamit ng kumpidensyal na AI sa kasalukuyan?

Ang pinakamalaking kompromiso ngayon ay ang bilis. Ang mga sistema ng AI na nakahiwalay sa mga pinagkakatiwalaang kapaligiran ng pagpapatupad ay maaaring karanasan kaunting pagkaantala kumpara sa mga istrukturang walang proteksyon, dahil lamang sa hardware-level memory encryption at attestation verification. Ang magandang balita ay ang mas bagong hardware ay nagsasara na ng kakulangang ito sa paglipas ng panahon.

Gayundin, kinakailangan ang mas maraming pag-setup ng trabaho at wastong pagpaplano, dahil ang mga sistema ay dapat gumana sa mas mahigpit na kapaligiran. Dapat ding isaalang-alang ang gastos. Kadalasang nangangailangan ang kumpidensyal na AI mga espesyal na kagamitan — halimbawa, mga espesyalisadong chip tulad ng NVIDIA H100 at H200 — at mga kagamitan, na maaaring magpataas ng mga paunang gastos. Ngunit ang mga gastos ay dapat balansehin laban sa mga potensyal na pinsala na maaaring magmula sa mga tagas ng code o hindi pagsunod sa mga regulasyon.

Ang confidential AI ay hindi pa isang pangkalahatang kinakailangan ng sistema, kaya dapat itong gamitin ng mga koponan kung saan pinakamahalaga ang privacy at pananagutan. Marami sa mga limitasyong ito ay malulutas na.

Inaasahan mo ba na malapit nang hingin ng mga regulator o pamantayan sa mga tool ng AI na panatilihing naka-encrypt ang lahat ng data habang pinoproseso?

Ang mga balangkas ng regulasyon tulad ng EU AI Act at ang US NIST AI Risk Management Framework ay malakas nang bigyang-diin sa pamamahala ng peligro, proteksyon ng datos, at pananagutan para sa mga high-impact AI system. Habang umuunlad ang mga balangkas na ito, ang mga sistemang naglalantad ng sensitibong datos sa pamamagitan ng disenyo ay nagiging mas mahirap bigyang-katwiran sa ilalim ng mga itinakdang inaasahan sa pamamahala.

Inilalatag din ng mga grupo ng pamantayan ang pundasyon sa pamamagitan ng pagtatakda ng mas malinaw na mga patakaran kung paano dapat pangasiwaan ng AI ang data habang ginagamit. Ang mga patakarang ito ay maaaring ipatupad sa iba't ibang bilis sa iba't ibang rehiyon. Gayunpaman, dapat asahan ng mga kumpanya ang mas maraming presyon sa mga sistemang nagpoproseso ng data sa simpleng teksto. Sa ganitong paraan, ang kumpidensyal na AI ay hindi gaanong tungkol sa paghula sa hinaharap kundi higit pa tungkol sa pagtutugma kung saan patungo na ang regulasyon.

Ano ang hitsura ng "responsableng vibe coding" ngayon para sa mga developer at lider ng IT?

Ang responsableng vibe coding ay ang pananatiling responsable para sa bawat linya ng code, mula sa pagsusuri ng mga mungkahi ng AI hanggang sa pagpapatunay ng mga implikasyon sa seguridad, pati na rin ang pagsasaalang-alang sa bawat edge case sa bawat programa. Para sa mga organisasyon, nangangailangan ito ng malinaw na... defipagbuo ng mga patakaran sa pag-apruba ng mga partikular na tool at mga ligtas na landas para sa sensitibong code, habang tinitiyak na nauunawaan ng mga team ang parehong kalakasan at limitasyon ng tulong sa AI.

Para sa mga regulator at mga lider ng industriya, ang gawain ay nangangahulugan ng pagdidisenyo ng malinaw na mga patakaran upang madaling matukoy ng mga pangkat kung aling mga kagamitan ang pinapayagan at kung saan maaaring gamitin ang mga ito. Ang sensitibong datos ay dapat lamang payagan sa mga sistemang sumusunod sa mga kinakailangan sa privacy at pagsunod, habang sinasanay din ang mga operator at gumagamit upang maunawaan ang kapangyarihan ng AI at ang mga limitasyon nito. Nakakatipid ng pagsisikap at oras ang AI kapag ginamit nang maayos, ngunit mayroon din itong mga magastos na panganib kung gagamitin nang walang ingat.

Sa hinaharap, paano mo nakikita ang ebolusyon ng mga AI coding assistant kaugnay ng seguridad?

Ang mga kagamitan sa AI coding ay magbabago mula sa pagiging mga rekomendasyon lamang patungo sa pag-verify ng code habang ito ay isinusulat habang sumusunod sa mga patakaran, awtorisadong library, at mga limitasyon sa seguridad sa real time.

Ang seguridad, kung mahalaga, ay mas palalalimin din sa kung paano tumatakbo ang mga tool na ito sa pamamagitan ng pagdidisenyo ng naka-encrypt na pagpapatupad at malinaw na mga talaan ng paggawa ng desisyon bilang mga normal na tampok. Sa paglipas ng panahon, babaguhin nito ang mga AI assistant mula sa mga panganib patungo sa mga tool na sumusuporta para sa ligtas na pag-develop. Ang pinakamahusay na mga sistema ay ang mga pinagsasama ang bilis at kontrol. At ang tiwala ay matutukoy sa kung paano gumagana ang mga tool, hindi sa pangako ng mga tagagawa.

Pagtanggi sa pananagutan

Sa linya na may Mga alituntunin ng Trust Project, pakitandaan na ang impormasyong ibinigay sa pahinang ito ay hindi nilayon at hindi dapat bigyang-kahulugan bilang legal, buwis, pamumuhunan, pananalapi, o anumang iba pang paraan ng payo. Mahalagang mamuhunan lamang kung ano ang maaari mong mawala at humingi ng independiyenteng payo sa pananalapi kung mayroon kang anumang mga pagdududa. Para sa karagdagang impormasyon, iminumungkahi naming sumangguni sa mga tuntunin at kundisyon pati na rin sa mga pahina ng tulong at suporta na ibinigay ng nagbigay o advertiser. MetaversePost ay nakatuon sa tumpak, walang pinapanigan na pag-uulat, ngunit ang mga kondisyon ng merkado ay maaaring magbago nang walang abiso.

Tungkol sa Ang May-akda

Alisa, isang dedikadong mamamahayag sa MPost, dalubhasa sa cryptocurrency, zero-knowledge proofs, investments, at ang malawak na larangan ng Web3. Sa isang matalas na mata para sa mga umuusbong na uso at teknolohiya, naghahatid siya ng komprehensibong saklaw upang ipaalam at hikayatin ang mga mambabasa sa patuloy na umuusbong na tanawin ng digital finance.

Mas marami pang artikulo
Alisa Davidson
Alisa Davidson

Alisa, isang dedikadong mamamahayag sa MPost, dalubhasa sa cryptocurrency, zero-knowledge proofs, investments, at ang malawak na larangan ng Web3. Sa isang matalas na mata para sa mga umuusbong na uso at teknolohiya, naghahatid siya ng komprehensibong saklaw upang ipaalam at hikayatin ang mga mambabasa sa patuloy na umuusbong na tanawin ng digital finance.

Ang Kalmado Bago Ang Bagyo ng Solana: Ano ang Sinasabi Ngayon ng mga Chart, Whale, At On-Chain Signal

Ang Solana ay nagpakita ng malakas na pagganap, na hinihimok ng pagtaas ng pag-aampon, interes sa institusyon, at pangunahing pakikipagsosyo, habang nahaharap sa potensyal ...

Malaman Higit Pa

Crypto Noong Abril 2025: Mga Pangunahing Trend, Pagbabago, At Ano ang Susunod

Noong Abril 2025, ang crypto space ay nakatuon sa pagpapalakas ng pangunahing imprastraktura, kasama ang Ethereum na naghahanda para sa Pectra ...

Malaman Higit Pa
Magbasa Pa
Magbasa nang higit pa
Dalawang-katlo ng mga Matatanda ang Nakikita ang Kaakit-akit na Katangian sa Literasiya sa Pinansyal, Ayon sa Survey ng OKX
Ulat sa Balita Teknolohiya
Dalawang-katlo ng mga Matatanda ang Nakikita ang Kaakit-akit na Katangian sa Literasiya sa Pinansyal, Ayon sa Survey ng OKX
Pebrero 10, 2026
Liquidity 2026: Kung Saan Nagtagpo ang mga Pandaigdigang Institusyon sa Kinabukasan ng mga Digital Asset at TradFi
Ulat sa Balita Teknolohiya
Liquidity 2026: Kung Saan Nagtagpo ang mga Pandaigdigang Institusyon sa Kinabukasan ng mga Digital Asset at TradFi
Pebrero 10, 2026
Isinusulong ng Next-Gen IsoDDE Engine ng Isomorphic Labs ang Disenyo ng mga Komplikado at Mahirap I-target na Molekula na Pinapatakbo ng AI
Ulat sa Balita Teknolohiya
Isinusulong ng Next-Gen IsoDDE Engine ng Isomorphic Labs ang Disenyo ng mga Komplikado at Mahirap I-target na Molekula na Pinapatakbo ng AI
Pebrero 10, 2026
Mabilis na Paglago ng AI Trading Suite Dahil Lumagpas na sa 2.3M ang Paggamit ng Gumagamit sa MEXC
Ulat sa Balita Teknolohiya
Mabilis na Paglago ng AI Trading Suite Dahil Lumagpas na sa 2.3M ang Paggamit ng Gumagamit sa MEXC
Pebrero 10, 2026
CRYPTOMERIA LABS PTE. LTD.