AI Wiki เทคโนโลยี
May 18, 2023

10 อันดับ AI และ ChatGPT ความเสี่ยงและอันตรายในปี 2023

ด้วยความก้าวหน้าของปัญญาประดิษฐ์ (AI) และเทคโนโลยีแชทบอท ทำให้บริษัทต่างๆ หันมาใช้โซลูชันการบริการลูกค้าแบบอัตโนมัติเพื่อปรับปรุงประสบการณ์ของลูกค้าและลดต้นทุนค่าใช้จ่าย แม้ว่าการใช้โมเดล AI และโซลูชันแชทบอทจะมีประโยชน์มากมาย แต่ก็ยังมีความเสี่ยงและอันตรายต่างๆ ที่เกี่ยวข้องกับเทคโนโลยี โดยเฉพาะอย่างยิ่งเมื่อสิ่งเหล่านี้แพร่หลายมากขึ้นและรวมเข้ากับชีวิตประจำวันของเราในทศวรรษหน้า

สัปดาห์นี้ ทุกคนในวุฒิสภาสหรัฐฯ ฟัง Sam Altman พูดเกี่ยวกับกฎระเบียบและความเสี่ยงของโมเดล AI นี่คือบทสรุปพื้นฐาน:

bioweapons

bioweapons
@Midjourney

การใช้ปัญญาประดิษฐ์ (AI) ในการพัฒนาอาวุธชีวภาพได้นำเสนอวิธีการสร้างอาวุธที่มีอานุภาพทำลายล้างสูงอย่างมีระเบียบและมีประสิทธิภาพที่เป็นอันตราย ChatGPT บอท เป็นผู้ช่วยสนทนาที่ขับเคลื่อนด้วย AI ซึ่งสามารถสนทนากับมนุษย์ได้เหมือนจริง ความกังวลกับ ChatGPT บอทคือพวกมันมีศักยภาพที่จะใช้เพื่อเผยแพร่ข้อมูลเท็จและจัดการจิตใจเพื่อสร้างอิทธิพล ความคิดเห็นของสาธารณชน.

ฉันเตือนถึงการใช้ AI ในทางที่ผิดที่เป็นไปได้ในการสร้างอาวุธชีวภาพ และย้ำถึงความจำเป็นในการควบคุมเพื่อป้องกันสถานการณ์ดังกล่าว

แซมอัลท์แมน

กฎระเบียบเป็นองค์ประกอบสำคัญในการป้องกันการใช้ AI ในทางที่ผิดและ ChatGPT บอทในการพัฒนาและใช้งานอาวุธชีวภาพ รัฐบาลจำเป็นต้องจัดทำแผนปฏิบัติการระดับชาติเพื่อจัดการกับการใช้เทคโนโลยีในทางที่ผิด และบริษัทต่างๆ ควรรับผิดชอบต่อการใช้เทคโนโลยีในทางที่ผิดที่อาจเกิดขึ้น AI และ ChatGPT บอท. องค์กรระหว่างประเทศควรลงทุนในความคิดริเริ่มที่มุ่งเน้นไปที่การฝึกอบรม การตรวจสอบ และการให้ความรู้แก่ AI และ ChatGPT บอท

ตกงาน

ตกงาน
@Midjourney

โอกาสในการตกงานเนื่องจาก AI และ ChatGPT ในปี 2023 คาดว่าจะเพิ่มขึ้นเป็นสามเท่าในปี 2020 AI และ ChatGPT อาจนำไปสู่ความไม่ปลอดภัยที่เพิ่มขึ้นในสถานที่ทำงาน การพิจารณาด้านจริยธรรม และผลกระทบทางจิตใจต่อพนักงาน เอไอ และ ChatGPT สามารถใช้ติดตามพฤติกรรมและกิจกรรมต่างๆ ของพนักงาน ทำให้นายจ้างสามารถตัดสินใจได้อย่างรวดเร็วและไม่ต้องให้บุคลากรเข้ามาเกี่ยวข้อง นอกจากนี้ AI และ ChatGPT อาจทำให้เกิดการตัดสินใจที่ไม่ยุติธรรมและมีอคติ ซึ่งอาจนำไปสู่ความไม่มั่นคงทางการเงิน สังคม และอารมณ์ในที่ทำงาน

ฉันย้ำว่าการพัฒนา AI อาจนำไปสู่การสูญเสียงานจำนวนมากและความไม่เท่าเทียมกันที่เพิ่มขึ้น

แซมอัลท์แมน

ระเบียบเอไอ

ระเบียบเอไอ
@Midjourney

บทความนี้จะสำรวจเกี่ยวกับ ความเสี่ยงที่อาจเกิดขึ้น และอันตรายรอบตัว AI และ ChatGPT กฎระเบียบในปี 2023 AI และ ChatGPT เทคนิค สามารถใช้เพื่อทำกิจกรรมที่อาจเป็นอันตราย เช่น การสร้างโปรไฟล์บุคคลตามพฤติกรรมและกิจกรรมของพวกเขา ขาดความเหมาะสม ระเบียบ AI อาจนำไปสู่ผลลัพธ์ที่ไม่ได้ตั้งใจ เช่น การละเมิดข้อมูลหรือการเลือกปฏิบัติ กฎระเบียบของ AI สามารถช่วยลดความเสี่ยงนี้ได้โดยการกำหนดแนวทางที่เข้มงวดเพื่อให้มั่นใจว่า ChatGPT ระบบ ไม่ได้ใช้ในทางที่เป็นอันตราย ในที่สุด AI และ ChatGPT อาจกลายเป็นปัจจัยควบคุมชีวิตของเรา ควบคุมสิ่งต่างๆ เช่น การจราจรที่ติดขัดและตลาดการเงิน และแม้กระทั่งถูกใช้ให้มีอิทธิพลต่อชีวิตทางการเมืองและสังคมของเรา เพื่อป้องกันความไม่สมดุลของอำนาจในลักษณะนี้ จำเป็นต้องมีกฎระเบียบที่เข้มงวด

เราแนะนำให้สร้างหน่วยงานใหม่เพื่อรับใบอนุญาตและ ควบคุม AI กิจกรรมหากความสามารถของพวกเขาเกินเกณฑ์ที่กำหนด

แซมอัลท์แมน

มาตรฐานความปลอดภัย

มาตรฐานความปลอดภัย
@Midjourney

เทคโนโลยี AI และแชทบอททำให้เกิดความก้าวหน้าในการจัดการชีวิตประจำวันของเรา เมื่อเทคโนโลยีเหล่านี้ก้าวหน้ามากขึ้น พวกเขามีศักยภาพที่จะเป็นอิสระและตัดสินใจได้ด้วยตัวเอง เพื่อป้องกันสิ่งนี้ มาตรฐานความปลอดภัย ต้องกำหนดว่าโมเดลเหล่านี้ต้องตรงตามเกณฑ์ก่อนจึงจะสามารถปรับใช้ได้ หนึ่งในมาตรฐานความปลอดภัยหลักที่ Altman เสนอในปี 2023 คือการทดสอบการจำลองตัวเอง ซึ่งจะทำให้มั่นใจได้ว่าโมเดล AI ไม่สามารถจำลองตัวเองได้หากไม่ได้รับอนุญาต มาตรฐานความปลอดภัยที่สองที่เสนอโดย Altman ในปี 2023 คือการทดสอบการกรองข้อมูล ซึ่งจะทำให้แน่ใจว่าโมเดล AI ไม่สามารถกรองข้อมูลจากระบบโดยไม่ได้รับอนุญาต รัฐบาลทั่วโลกได้เริ่มดำเนินการเพื่อปกป้องพลเมืองจากความเสี่ยงที่อาจเกิดขึ้น

เราต้องใช้มาตรฐานความปลอดภัยที่โมเดล AI ต้องเป็นไปตามก่อนนำไปใช้ รวมถึงการทดสอบการจำลองตัวเองและการกรองข้อมูล

แซมอัลท์แมน

การตรวจสอบอิสระ

การตรวจสอบอิสระ
@Midjourney

ในปี 2023 ความจำเป็นในการตรวจสอบอิสระของเทคโนโลยี AI และ LLM มีความสำคัญมากขึ้น AI ก่อให้เกิดความเสี่ยงหลายประการ เช่น อัลกอริธึมการเรียนรู้ของเครื่องที่ไม่ได้รับการดูแล ซึ่งสามารถแก้ไขหรือแม้แต่ลบข้อมูลโดยไม่สมัครใจ และการโจมตีทางไซเบอร์ก็พุ่งเป้าไปที่ AI และ ChatGPT. โมเดลที่สร้างขึ้นโดย AI มีอคติ ซึ่งอาจนำไปสู่การเลือกปฏิบัติ การตรวจสอบที่เป็นอิสระควรรวมถึงการตรวจสอบของ โมเดล AI ได้รับการฝึกอบรมเกี่ยวกับการออกแบบอัลกอริทึม และเอาต์พุตของโมเดลเพื่อให้แน่ใจว่าจะไม่แสดงรหัสหรือผลลัพธ์ที่มีอคติ นอกจากนี้ การตรวจสอบควรรวมถึงการตรวจสอบนโยบายความปลอดภัยและขั้นตอนที่ใช้ในการป้องกัน ข้อมูลผู้ใช้ และรับประกันสภาพแวดล้อมที่ปลอดภัย

มีการดำเนินการตรวจสอบอิสระเพื่อให้แน่ใจว่าโมเดล AI เป็นไปตามมาตรฐานความปลอดภัยที่กำหนดไว้

แซมอัลท์แมน

หากปราศจากการตรวจสอบโดยอิสระ ธุรกิจและผู้ใช้จะถูกเปิดเผย อันตรายได้ และความเสี่ยงด้านค่าใช้จ่ายที่อาจหลีกเลี่ยงได้ จำเป็นอย่างยิ่งที่ทุกธุรกิจที่ใช้เทคโนโลยีนี้จะต้องมีการตรวจสอบอย่างเป็นอิสระให้เสร็จสิ้นก่อนการปรับใช้ เพื่อให้มั่นใจว่าเทคโนโลยีนั้นปลอดภัยและมีจริยธรรม

AI เป็นเครื่องมือ

AI เป็นเครื่องมือ
@Midjourney

AI ได้พัฒนาอย่างก้าวกระโดดและ ความก้าวหน้าเช่น GPT-4 ได้นำไปสู่การโต้ตอบที่สมจริงและซับซ้อนยิ่งขึ้นกับคอมพิวเตอร์ อย่างไรก็ตาม Altman เน้นย้ำว่า AI ควรถูกมองว่าเป็นเครื่องมือ ไม่ใช่สิ่งมีชีวิตที่มีความรู้สึก GPT-4 เป็นรูปแบบการประมวลผลภาษาธรรมชาติที่สามารถสร้างเนื้อหาที่แทบจะแยกไม่ออกจากเนื้อหาที่เขียนโดยมนุษย์ โดยเอางานบางส่วนไปจากผู้เขียน และช่วยให้ผู้ใช้ได้รับประสบการณ์ที่เหมือนกับมนุษย์มากขึ้นกับเทคโนโลยี

AI โดยเฉพาะโมเดลขั้นสูงเช่น GPT-4ควรมองว่าเป็นเครื่องมือไม่ใช่สิ่งมีชีวิต

แซมอัลท์แมน

อย่างไรก็ตาม Sam Altman เตือนว่าการให้ความสำคัญกับ AI มากเกินไปเนื่องจากมากกว่าเครื่องมืออาจนำไปสู่ความคาดหวังที่ไม่สมจริงและความเชื่อผิดๆ เกี่ยวกับความสามารถของมัน นอกจากนี้ เขายังชี้ให้เห็นว่า AI ไม่ได้ปราศจากนัยยะทางจริยธรรม และแม้ว่า AI ในระดับสูงจะสามารถนำมาใช้ในทางที่ดีได้ แต่ก็ยังสามารถนำมาใช้ในทางที่ไม่ดี ซึ่งนำไปสู่การสร้างโปรไฟล์ทางเชื้อชาติที่เป็นอันตราย การละเมิดความเป็นส่วนตัวและแม้กระทั่งภัยคุกคามด้านความปลอดภัย Altman เน้นความสำคัญของการทำความเข้าใจว่า AI เป็นเพียงเครื่องมือเท่านั้น และควรถูกมองว่าเป็นเครื่องมือในการเร่งความก้าวหน้าของมนุษย์ ไม่ใช่เพื่อแทนที่มนุษย์

AI จิตสำนึก

AI จิตสำนึก
@Midjourney

การถกเถียงเกี่ยวกับ AI และการบรรลุการรับรู้อย่างมีสตินั้นเพิ่มขึ้นหรือไม่ นักวิจัยหลายคนกำลังโต้แย้งว่าเครื่องจักรไม่สามารถประสบกับสภาวะทางอารมณ์ จิตใจ หรือจิตสำนึกได้ แม้ว่าจะมีสถาปัตยกรรมการคำนวณที่ซับซ้อนก็ตาม นักวิจัยบางคนยอมรับความเป็นไปได้ที่ AI จะบรรลุการรับรู้อย่างมีสติ ข้อโต้แย้งหลักสำหรับความเป็นไปได้นี้คือ AI สร้างขึ้นจากโปรแกรมที่ทำให้มันมีความสามารถ จำลอง กระบวนการทางร่างกายและจิตใจบางอย่างที่พบในสมองของมนุษย์ อย่างไรก็ตาม ข้อโต้แย้งหลักก็คือ AI ไม่มีความฉลาดทางอารมณ์ที่แท้จริง

แม้ว่า AI ควรถูกมองว่าเป็นเครื่องมือ แต่ฉันรับทราบถึงการถกเถียงอย่างต่อเนื่องในชุมชนวิทยาศาสตร์เกี่ยวกับจิตสำนึกของ AI ที่อาจเกิดขึ้น

แซมอัลท์แมน

นักวิจัยด้าน AI หลายคนยอมรับว่าไม่มีข้อพิสูจน์ทางวิทยาศาสตร์ใดที่บ่งชี้ว่า AI มีความสามารถในการรับรู้อย่างมีสติในลักษณะเดียวกับที่มนุษย์สามารถทำได้ Elon Muskซึ่งเป็นหนึ่งในผู้สนับสนุนหลักในมุมมองนี้ เชื่อว่าความสามารถของ AI ในการเลียนแบบรูปแบบชีวิตทางชีววิทยานั้นจำกัดอย่างมาก และควรให้ความสำคัญมากขึ้นในการสอนค่านิยมทางจริยธรรมของเครื่องจักร

การใช้งานทางทหาร

การใช้งานทางทหาร
@Midjourney

AI ในบริบททางทหารกำลังก้าวหน้าอย่างรวดเร็วและมีศักยภาพในการปรับปรุงวิธีการทำสงครามทางทหาร นักวิทยาศาสตร์กังวลว่า AI ในกองทัพอาจนำเสนอปัญหาด้านจริยธรรมและความเสี่ยงต่างๆ เช่น ความคาดเดาไม่ได้ การคำนวณไม่ได้ และการขาดความโปร่งใส

ฉันตระหนักถึงศักยภาพของการใช้ AI ในการใช้งานทางทหาร เช่น โดรนไร้คนขับ และเรียกร้องให้ ข้อบังคับในการควบคุม การใช้งานดังกล่าว

แซมอัลท์แมน

ระบบ AI มีความเสี่ยงต่อผู้ประสงค์ร้ายที่สามารถตั้งโปรแกรมระบบใหม่หรือแทรกซึมเข้าไปในระบบ ซึ่งอาจนำไปสู่ผลลัพธ์ที่ร้ายแรง เพื่อจัดการกับสิ่งเหล่านี้ ความกังวลประชาคมระหว่างประเทศได้ดำเนินการขั้นแรกในรูปแบบของอนุสัญญาระหว่างประเทศว่าด้วยอาวุธธรรมดาบางชนิดปี 1980 ซึ่งมีข้อห้ามบางประการเกี่ยวกับการใช้อาวุธบางชนิด ผู้เชี่ยวชาญด้าน AI ได้เรียกร้องให้มีคณะกรรมการระหว่างประเทศเพื่อดูแลกระบวนการต่าง ๆ เช่น การประเมิน การฝึกอบรม และการนำ AI ไปใช้ในการใช้งานทางทหาร

AGI

AGI
@Midjourney

เทคโนโลยี AI ก้าวหน้าและแพร่หลายมากขึ้น ทำให้การเข้าใจความเสี่ยงที่อาจเกิดขึ้นจากตัวแทนและระบบ AI เป็นเรื่องสำคัญ ความเสี่ยงแรกและชัดเจนที่สุดที่เกี่ยวข้องกับตัวแทน AI คืออันตรายของเครื่องจักรที่ฉลาดเหนือมนุษย์ ตัวแทน AI สามารถเอาชนะผู้สร้างได้อย่างง่ายดายโดยเข้าควบคุมกระบวนการตัดสินใจ กระบวนการอัตโนมัติ และงานขั้นสูงอื่นๆ นอกจากนี้ ระบบอัตโนมัติที่ขับเคลื่อนด้วย AI ยังสามารถเพิ่มความไม่เท่าเทียมกัน เนื่องจากเข้ามาแทนที่มนุษย์ใน ตลาดงาน.

ฉันเตือนว่าระบบ AI ที่ทรงพลังและซับซ้อนอาจใกล้เคียงกับความเป็นจริงมากกว่าที่หลายคนคิด และย้ำถึงความจำเป็นในการเตรียมพร้อมและมาตรการป้องกัน

แซมอัลท์แมน

อัลกอริทึม AI และการนำไปใช้ในการตัดสินใจที่ซับซ้อนทำให้เกิดความกังวลเรื่องการขาดความโปร่งใส องค์กรสามารถ ลดความเสี่ยง เกี่ยวข้องกับเอเจนต์ AI โดยทำให้แน่ใจว่า AI ได้รับการพัฒนาอย่างมีจริยธรรม โดยใช้ข้อมูลที่สอดคล้องกับมาตรฐานทางจริยธรรม และใช้อัลกอริทึมในการทดสอบตามปกติเพื่อให้แน่ใจว่าไม่มีอคติและรับผิดชอบต่อผู้ใช้และข้อมูล

สรุป

Altman ยังระบุด้วยว่าแม้ว่าเราอาจไม่สามารถจัดการจีนได้ แต่เราต้องเจรจากับจีน เสนอหลักเกณฑ์การประเมินและ การควบคุมโมเดล AI รวมถึง ความสามารถในการสังเคราะห์ตัวอย่างทางชีวภาพ การบิดเบือนความเชื่อของผู้คน ปริมาณพลังงานการประมวลผลที่ใช้ไป และอื่นๆ

ประเด็นสำคัญคือแซมควรมี "ความสัมพันธ์" กับรัฐ เราหวังว่าพวกเขาจะไม่ทำตามแบบอย่างของยุโรปดังที่เราได้กล่าวไปแล้ว

คำถามที่พบบ่อย

ความเสี่ยงของ AI รวมถึงศักยภาพที่ระบบ AI จะแสดงพฤติกรรมที่มีอคติหรือเลือกปฏิบัติ นำไปใช้ในทางที่ผิดหรือไม่เหมาะสม หรือทำงานผิดปกติในลักษณะที่ก่อให้เกิดอันตราย การพัฒนาและการใช้เทคโนโลยี AI อาจก่อให้เกิดความเสี่ยงต่อความเป็นส่วนตัวและความปลอดภัยของข้อมูล ตลอดจนความปลอดภัยและความมั่นคงของมนุษย์และระบบ

ความเสี่ยงหลัก XNUMX ประการที่เกี่ยวข้องกับ AI ได้แก่ การตกงาน ความเสี่ยงด้านความปลอดภัย, อคติหรือการเลือกปฏิบัติ, อาวุธชีวภาพและ AGI

แง่มุมที่อันตรายที่สุดของ AI คือศักยภาพในการทำให้เกิดการว่างงานจำนวนมาก

ข้อจำกัดความรับผิดชอบ

สอดคล้องกับ แนวทางโครงการที่เชื่อถือได้โปรดทราบว่าข้อมูลที่ให้ไว้ในหน้านี้ไม่ได้มีจุดมุ่งหมายและไม่ควรตีความว่าเป็นคำแนะนำทางกฎหมาย ภาษี การลงทุน การเงิน หรือรูปแบบอื่นใด สิ่งสำคัญคือต้องลงทุนเฉพาะในสิ่งที่คุณสามารถที่จะสูญเสียได้ และขอคำแนะนำทางการเงินที่เป็นอิสระหากคุณมีข้อสงสัยใดๆ สำหรับข้อมูลเพิ่มเติม เราขอแนะนำให้อ้างอิงข้อกำหนดและเงื่อนไขตลอดจนหน้าช่วยเหลือและสนับสนุนที่ผู้ออกหรือผู้ลงโฆษณาให้ไว้ MetaversePost มุ่งมั่นที่จะรายงานที่ถูกต้องและเป็นกลาง แต่สภาวะตลาดอาจมีการเปลี่ยนแปลงได้โดยไม่ต้องแจ้งให้ทราบล่วงหน้า

เกี่ยวกับผู้เขียน

Damir เป็นหัวหน้าทีม ผู้จัดการผลิตภัณฑ์ และบรรณาธิการที่ Metaverse Postซึ่งครอบคลุมหัวข้อต่างๆ เช่น AI/ML, AGI, LLMs, Metaverse และ Web3- สาขาที่เกี่ยวข้อง บทความของเขาดึงดูดผู้ชมจำนวนมากกว่าล้านคนทุกเดือน ดูเหมือนว่าเขาจะเป็นผู้เชี่ยวชาญที่มีประสบการณ์ 10 ปีในด้าน SEO และการตลาดดิจิทัล Damir ได้รับการกล่าวถึงใน Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto และสิ่งพิมพ์อื่น ๆ เขาเดินทางไปมาระหว่างสหรัฐอาหรับเอมิเรตส์ ตุรกี รัสเซีย และ CIS ในฐานะคนเร่ร่อนทางดิจิทัล Damir สำเร็จการศึกษาระดับปริญญาตรีสาขาฟิสิกส์ ซึ่งเขาเชื่อว่าทำให้เขามีทักษะการคิดเชิงวิพากษ์ที่จำเป็นต่อการประสบความสำเร็จในภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลาของอินเทอร์เน็ต 

บทความอื่น ๆ
ดาเมียร์ ยาลอฟ
ดาเมียร์ ยาลอฟ

Damir เป็นหัวหน้าทีม ผู้จัดการผลิตภัณฑ์ และบรรณาธิการที่ Metaverse Postซึ่งครอบคลุมหัวข้อต่างๆ เช่น AI/ML, AGI, LLMs, Metaverse และ Web3- สาขาที่เกี่ยวข้อง บทความของเขาดึงดูดผู้ชมจำนวนมากกว่าล้านคนทุกเดือน ดูเหมือนว่าเขาจะเป็นผู้เชี่ยวชาญที่มีประสบการณ์ 10 ปีในด้าน SEO และการตลาดดิจิทัล Damir ได้รับการกล่าวถึงใน Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto และสิ่งพิมพ์อื่น ๆ เขาเดินทางไปมาระหว่างสหรัฐอาหรับเอมิเรตส์ ตุรกี รัสเซีย และ CIS ในฐานะคนเร่ร่อนทางดิจิทัล Damir สำเร็จการศึกษาระดับปริญญาตรีสาขาฟิสิกส์ ซึ่งเขาเชื่อว่าทำให้เขามีทักษะการคิดเชิงวิพากษ์ที่จำเป็นต่อการประสบความสำเร็จในภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลาของอินเทอร์เน็ต 

Hot Stories
เข้าร่วมจดหมายข่าวของเรา
ข่าวล่าสุด

ความอยากอาหารของสถาบันเติบโตขึ้นสู่ Bitcoin ETFs ท่ามกลางความผันผวน

การเปิดเผยผ่านการยื่นเอกสาร 13F เผยให้เห็นนักลงทุนสถาบันที่มีชื่อเสียงกำลังเล่น Bitcoin ETFs ซึ่งตอกย้ำถึงการยอมรับที่เพิ่มขึ้นของ ...

รู้เพิ่มเติม

วันพิพากษามาถึง: ชะตากรรมของ CZ แขวนอยู่ในสมดุลขณะที่ศาลสหรัฐฯ พิจารณาคำร้องของ DOJ

ฉางเผิง จ้าว เตรียมเผชิญโทษจำคุกในศาลสหรัฐฯ ในเมืองซีแอตเทิลวันนี้

รู้เพิ่มเติม
เข้าร่วมชุมชนเทคโนโลยีที่เป็นนวัตกรรมของเรา
อ่านเพิ่มเติม
อ่านเพิ่มเติม
Morph เปิดตัว Holesky Testnet พร้อมการบูรณาการ zkEVM ในแง่ดี กลไกบริดจ์ และคุณสมบัติเครือข่ายซีเควนเซอร์แบบกระจายอำนาจ
รายงานข่าว เทคโนโลยี
Morph เปิดตัว Holesky Testnet พร้อมการบูรณาการ zkEVM ในแง่ดี กลไกบริดจ์ และคุณสมบัติเครือข่ายซีเควนเซอร์แบบกระจายอำนาจ
May 6, 2024
Robinhood Crypto ได้รับการแจ้งเตือนจาก Wells จากสำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์เกี่ยวกับการละเมิดหลักทรัพย์ที่ถูกกล่าวหา
ตลาด รายงานข่าว เทคโนโลยี
Robinhood Crypto ได้รับการแจ้งเตือนจาก Wells จากสำนักงานคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์เกี่ยวกับการละเมิดหลักทรัพย์ที่ถูกกล่าวหา
May 6, 2024
QuickSwap ปรับใช้บน X Layer Mainnet และขยายเครือข่าย Polygon CDK ด้วยการเปิดตัว Citadel
รายงานข่าว เทคโนโลยี
QuickSwap ปรับใช้บน X Layer Mainnet และขยายเครือข่าย Polygon CDK ด้วยการเปิดตัว Citadel 
May 6, 2024
เครือข่ายเลเยอร์ 2 Linea เริ่มต้นการอ้างสิทธิ์โทเค็น ZERO ของ ZeroLend Airdrop ผู้ใช้และนักลงทุน
ตลาด รายงานข่าว เทคโนโลยี
เครือข่ายเลเยอร์ 2 Linea เริ่มต้นการอ้างสิทธิ์โทเค็น ZERO ของ ZeroLend Airdrop ผู้ใช้และนักลงทุน
May 6, 2024
CRYPTOMERIA LABS PTE. บจก.