รายงานข่าว เทคโนโลยี
กรกฎาคม 11, 2023

GPT-4รายละเอียดที่รั่วไหลออกมาเผยให้เห็นถึงขนาดที่ใหญ่โตและสถาปัตยกรรมที่น่าประทับใจ

ในบทสรุป

ข้อมูลรั่วไหลเกี่ยวกับ GPT-4 ได้จุดประกายความตื่นเต้นให้กับชุมชน AI ด้วยพารามิเตอร์ที่มากกว่ารุ่นก่อนถึง 10 เท่า GPT-3, GPT-4 คาดว่าจะมีพารามิเตอร์ 1.8 ล้านล้านพารามิเตอร์กระจายอยู่ใน 120 เลเยอร์

OpenAI ใช้แบบจำลองผสมผสานของผู้เชี่ยวชาญ (MoE) โดยใช้ผู้เชี่ยวชาญ 16 คน พร้อมด้วยพารามิเตอร์ 111 พันล้านพารามิเตอร์สำหรับเพอร์เซปตรอนหลายชั้น (MLP) กระบวนการอนุมานที่มีประสิทธิภาพของแบบจำลองใช้พารามิเตอร์ 280 พันล้านพารามิเตอร์และ 560 TFLOP ต่อการส่งต่อ ซึ่งแสดงให้เห็น OpenAIความมุ่งมั่นในการเพิ่มประสิทธิภาพและความคุ้มค่าสูงสุด ชุดข้อมูลการฝึกของโมเดลประกอบด้วยโทเค็น 13 ล้านล้านโทเค็น พร้อมการปรับแต่งแบบละเอียดตั้งแต่ 8k ถึง 32k

OpenAI ใช้ความเท่าเทียมใน GPT-4 เพื่อใช้ประโยชน์จากศักยภาพสูงสุดของ GPU A100 โดยใช้เทนเซอร์ขนาน 8 ทิศทางและไปป์ไลน์ขนาน 15 ทิศทาง กระบวนการฝึกอบรมกว้างขวางและใช้ทรัพยากรมาก โดยมีค่าใช้จ่ายตั้งแต่ 32 ล้านถึง 63 ล้านดอลลาร์

GPT-4ค่าใช้จ่ายในการอนุมานนั้นสูงกว่ารุ่นก่อนประมาณสามเท่า แต่ยังรวมเอาความสนใจในการสืบค้นหลายรายการ การแบทช์อย่างต่อเนื่อง และการถอดรหัสแบบเก็งกำไรด้วย สถาปัตยกรรมการอนุมานทำงานบนคลัสเตอร์ 128 GPU ซึ่งกระจายอยู่ในศูนย์ข้อมูลหลายแห่ง

ล่าสุดมีการรั่วไหลของรายละเอียดโดยรอบ GPT-4 ได้ส่งคลื่นกระแทกผ่านชุมชน AI ข้อมูลที่รั่วไหลได้มาจากแหล่งที่ไม่เปิดเผย เผยให้เห็นถึงความสามารถอันน่าทึ่งและขนาดที่ไม่เคยมีมาก่อนของโมเดลที่ก้าวล้ำนี้ เราจะแจกแจงข้อเท็จจริงและเปิดเผยประเด็นสำคัญที่ทำให้ GPT-4 ความมหัศจรรย์ทางเทคโนโลยีที่แท้จริง

GPT-4รายละเอียดที่รั่วไหลออกมาเผยให้เห็นถึงขนาดที่ใหญ่โตและสถาปัตยกรรมที่น่าประทับใจ
เครดิต: Metaverse Post (mpost.io)
สารบัญ

GPT-4นับพารามิเตอร์จำนวนมาก

การเปิดเผยที่น่าทึ่งที่สุดประการหนึ่งจากการรั่วไหลคือขนาดที่แท้จริง GPT-4. มันมีขนาดที่น่าประหลาดใจด้วยพารามิเตอร์มากกว่ารุ่นก่อนถึง 10 เท่า GPT-3. คาดว่าจะมีทั้งหมดประมาณ 1.8 ล้านล้านพารามิเตอร์ กระจายไปทั่ว 120 ชั้นที่น่าประทับใจ ขนาดที่เพิ่มขึ้นอย่างมากนี้มีส่วนช่วยอย่างไม่ต้องสงสัย GPT-4ความสามารถที่เพิ่มขึ้นของ และศักยภาพสำหรับความก้าวหน้าที่ก้าวล้ำ

การผสมผสานของแบบจำลองผู้เชี่ยวชาญ (MoE)

เพื่อให้มั่นใจถึงต้นทุนที่สมเหตุสมผลในขณะที่ยังคงรักษาประสิทธิภาพที่ยอดเยี่ยม OpenAI ใช้แบบจำลองผสมผสานของผู้เชี่ยวชาญ (MoE) ใน GPT-4. ด้วยการใช้ผู้เชี่ยวชาญ 16 คนในแบบจำลอง ซึ่งแต่ละรายประกอบด้วยพารามิเตอร์ประมาณ 111 พันล้านพารามิเตอร์สำหรับเพอร์เซปตรอนหลายชั้น (MLP) OpenAI การจัดสรรทรัพยากรอย่างเหมาะสมและมีประสิทธิภาพ โดยเฉพาะอย่างยิ่งในระหว่างการส่งต่อแต่ละครั้ง จะมีผู้เชี่ยวชาญเพียงสองคนเท่านั้นที่ได้รับการกำหนดเส้นทาง ช่วยลดข้อกำหนดในการคำนวณให้เหลือน้อยที่สุดโดยไม่กระทบต่อผลลัพธ์ วิธีการเชิงนวัตกรรมนี้แสดงให้เห็น OpenAIความมุ่งมั่นของในการเพิ่มประสิทธิภาพและความคุ้มทุนในโมเดลของตนให้สูงสุด

อัลกอริทึมการกำหนดเส้นทาง MoE แบบง่าย

ในขณะที่โมเดลมักจะสำรวจอัลกอริธึมการกำหนดเส้นทางขั้นสูงสำหรับการเลือกผู้เชี่ยวชาญเพื่อจัดการโทเค็นแต่ละรายการ OpenAIแนวทางในปัจจุบัน GPT-4 มีรายงานว่าโมเดลมีความตรงไปตรงมามากขึ้น อัลกอริธึมการกำหนดเส้นทางที่ใช้โดย AI นั้นค่อนข้างง่าย แต่ก็มีประสิทธิภาพ พารามิเตอร์ที่ใช้ร่วมกันประมาณ 55 พันล้านพารามิเตอร์สำหรับความสนใจช่วยอำนวยความสะดวกในการกระจายโทเค็นอย่างมีประสิทธิภาพไปยังผู้เชี่ยวชาญที่เหมาะสมภายในโมเดล

การอนุมานที่มีประสิทธิภาพ

GPT-4กระบวนการอนุมานของแสดงให้เห็นถึงประสิทธิภาพและความสามารถในการคำนวณ การส่งต่อแต่ละครั้งมีไว้สำหรับการสร้างโทเค็นเดียว ใช้พารามิเตอร์ประมาณ 280 พันล้านพารามิเตอร์และ 560 TFLOP (การดำเนินการจุดลอยตัวต่อวินาที) สิ่งนี้แตกต่างอย่างสิ้นเชิงกับขนาดอันใหญ่โตของ GPT-4โดยมีพารามิเตอร์ 1.8 ล้านล้านพารามิเตอร์และ 3,700 TFLOP ต่อการส่งต่อในโมเดลที่มีความหนาแน่นล้วนๆ จุดเด่นของการใช้ทรัพยากรอย่างมีประสิทธิภาพ OpenAIความทุ่มเทของเพื่อให้ได้ประสิทธิภาพสูงสุดโดยไม่ต้องมีข้อกำหนดด้านการคำนวณมากเกินไป

ชุดข้อมูลการฝึกอบรมที่กว้างขวาง

GPT-4 ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดมหึมาที่ประกอบด้วยโทเค็นประมาณ 13 ล้านล้านโทเค็น สิ่งสำคัญคือต้องทราบว่าโทเค็นเหล่านี้มีทั้งโทเค็นที่ไม่ซ้ำกันและโทเค็นที่บัญชีสำหรับหมายเลขยุค ที่ ขั้นตอนการฝึก รวมสองยุคสำหรับข้อมูลแบบข้อความและสี่ยุคสำหรับข้อมูลแบบโค้ด OpenAI ใช้ประโยชน์จากข้อมูลการปรับแต่งคำสั่งอย่างละเอียดหลายล้านแถวที่มาจาก ScaleAI และภายในเพื่อปรับแต่งประสิทธิภาพของโมเดล

การปรับแต่งผ่านการปรับละเอียดจาก 8K เป็น 32K

ขั้นตอนก่อนการฝึกของ GPT-4 ใช้ความยาวบริบท 8k ต่อมาโมเดลได้รับการปรับแต่งอย่างละเอียด ส่งผลให้ได้เวอร์ชัน 32k ความก้าวหน้านี้สร้างขึ้นจากขั้นตอนก่อนการฝึกอบรม เพิ่มขีดความสามารถของโมเดลและปรับแต่งให้เหมาะกับงานเฉพาะ

ปรับขนาดด้วย GPUs ผ่าน Parallelism

OpenAI ควบคุมพลังแห่งความเท่าเทียมใน GPT-4 เพื่อใช้ประโยชน์จากศักยภาพสูงสุดของ A100 GPUs พวกเขาใช้เทนเซอร์แบบขนาน 8 ทิศทาง ซึ่งเพิ่มการประมวลผลแบบขนานสูงสุด เนื่องจากเป็นขีดจำกัดของ NVLink นอกจากนี้ มีการใช้ระบบขนานไปป์ไลน์ 15 ทิศทางเพื่อเพิ่มประสิทธิภาพให้ดียิ่งขึ้น แม้ว่าเทคนิคเฉพาะเช่น ZeRo Stage 1 น่าจะถูกนำมาใช้ แต่วิธีการที่แน่นอนยังคงไม่มีการเปิดเผย

ค่าใช้จ่ายในการฝึกอบรมและความท้าทายในการใช้งาน

การฝึกอบรม GPT-4 เป็นความพยายามที่กว้างขวางและใช้ทรัพยากรมาก OpenAI จัดสรร GPU A25,000 ประมาณ 100 ตัวในช่วงระยะเวลา 90 ถึง 100 วัน โดยทำงานที่อัตราการใช้ประโยชน์ประมาณ 32% ถึง 36% MFU (ใช้บ่อยที่สุด) กระบวนการฝึกอบรมทำให้เกิดความล้มเหลวหลายครั้ง ทำให้ต้องรีสตาร์ทจากจุดตรวจบ่อยครั้ง หากประมาณไว้ที่ 1 ดอลลาร์ต่อ A100 ชั่วโมง ค่าอบรม สำหรับการวิ่งครั้งนี้เพียงอย่างเดียวจะมีมูลค่าประมาณ 63 ล้านเหรียญ

การแลกเปลี่ยนในส่วนผสมของผู้เชี่ยวชาญ

การใช้แบบจำลองผู้เชี่ยวชาญผสมผสานกันทำให้เกิดข้อดีหลายประการ ในกรณีของ GPT-4, OpenAI เลือกผู้เชี่ยวชาญ 16 คนแทนที่จะเป็นจำนวนที่สูงกว่า การตัดสินใจครั้งนี้สะท้อนให้เห็นถึงความสมดุลระหว่างการบรรลุผลการสูญเสียที่เหนือกว่าและความมั่นใจในความสามารถทั่วไปในงานต่างๆ ผู้เชี่ยวชาญจำนวนมากขึ้นสามารถนำเสนอความท้าทายในแง่ของภาพรวมของงานและการบรรจบกัน OpenAIการเลือกออกกำลังกาย ข้อควรระวังในผู้เชี่ยวชาญ การเลือกสอดคล้องกับความมุ่งมั่นในการปฏิบัติงานที่เชื่อถือได้และแข็งแกร่ง

ต้นทุนการอนุมาน

เมื่อเทียบกับรุ่นก่อน รุ่น Davinci ที่มีพารามิเตอร์ 175 พันล้าน GPT-4ค่าใช้จ่ายในการอนุมานนั้นสูงกว่าประมาณสามเท่า ความคลาดเคลื่อนนี้อาจเกิดจากปัจจัยหลายประการ รวมถึงคลัสเตอร์ขนาดใหญ่ที่ต้องรองรับด้วย GPT-4 และการใช้งานที่ต่ำกว่าที่เกิดขึ้นระหว่างการอนุมาน การประมาณการระบุค่าใช้จ่ายโดยประมาณ 0.0049 เซนต์ต่อ 1,000 โทเค็นสำหรับ 128 A100 GPU และ 0.0021 ดอลลาร์ต่อ 1,000 โทเค็นสำหรับ 128 H100 GPU เมื่ออนุมาน GPT-4 ด้วยเงิน 8k ตัวเลขเหล่านี้ถือว่ามีการใช้งานที่เหมาะสมและขนาดแบทช์ที่สูง ซึ่งเป็นข้อพิจารณาที่สำคัญสำหรับการเพิ่มประสิทธิภาพต้นทุน

ความสนใจหลายแบบสอบถาม

OpenAI ใช้ประโยชน์จากความสนใจแบบหลายคำค้นหา (MQA) ซึ่งเป็นเทคนิคที่ใช้กันอย่างแพร่หลายในสาขานี้ GPT-4 เช่นกัน. การนำ MQA ไปใช้จะทำให้โมเดลต้องการเพียงหัวเดียว ซึ่งจะช่วยลดความจุหน่วยความจำที่จำเป็นสำหรับแคชคีย์-ค่า (แคช KV) ได้อย่างมาก แม้จะมีการเพิ่มประสิทธิภาพนี้ แต่ก็ควรสังเกตว่าแบตช์ 32k GPT-4 ไม่สามารถรองรับ GPU A40 ขนาด 100GB ได้ และขนาด 8k ถูกจำกัดด้วยขนาดแบตช์สูงสุด

แบตช์ต่อเนื่อง

เพื่อสร้างสมดุลระหว่างเวลาแฝงและต้นทุนการอนุมาน OpenAI รวมเอาทั้งขนาดชุดที่แปรผันและชุดชุดต่อเนื่องเข้า GPT-4. แนวทางการปรับตัวนี้ช่วยให้การประมวลผลมีความยืดหยุ่นและมีประสิทธิภาพ เพิ่มประสิทธิภาพการใช้ทรัพยากร และลดค่าใช้จ่ายในการคำนวณ

วิชั่นมัลติโมดอล

GPT-4 แนะนำตัวเข้ารหัสการมองเห็นที่แยกจากกันควบคู่ไปกับตัวเข้ารหัสข้อความ ซึ่งมีความสนใจข้ามระหว่างทั้งสอง สถาปัตยกรรมนี้ชวนให้นึกถึงนกฟลามิงโก้ โดยเพิ่มพารามิเตอร์เพิ่มเติมให้กับจำนวนพารามิเตอร์ที่น่าประทับใจอยู่แล้วถึง 1.8 ล้านล้าน GPT-4. โมเดลการมองเห็นผ่านการปรับแต่งแบบละเอียดแยกกันโดยใช้โทเค็นประมาณ 2 ล้านล้านโทเค็นหลังจากช่วงก่อนการฝึกอบรมแบบข้อความเท่านั้น ความสามารถในการมองเห็นนี้ช่วยเพิ่มขีดความสามารถ ตัวแทนอิสระ เพื่ออ่านหน้าเว็บ ถอดเสียงรูปภาพ และตีความเนื้อหาวิดีโอ ซึ่งเป็นทรัพย์สินอันล้ำค่าในยุคของข้อมูลมัลติมีเดีย

การถอดรหัสเก็งกำไร

แง่มุมที่น่าสนใจของ GPT-4กลยุทธ์การอนุมานคือการใช้การถอดรหัสแบบเก็งกำไรที่เป็นไปได้ แนวทางนี้เกี่ยวข้องกับการใช้ขนาดเล็กลงและเร็วขึ้น แบบ เพื่อสร้างการคาดการณ์ล่วงหน้าสำหรับหลายโทเค็น โทเค็นที่คาดการณ์ไว้เหล่านี้จะถูกป้อนเข้าสู่โมเดล "oracle" ที่ใหญ่ขึ้นเป็นแบทช์เดียว ถ้ายิ่งเล็ก การคาดการณ์ของแบบจำลอง สอดคล้องกับข้อตกลงของโมเดลที่ใหญ่กว่า สามารถถอดรหัสโทเค็นหลายรายการพร้อมกันได้ อย่างไรก็ตาม หากโมเดลที่ใหญ่กว่าปฏิเสธโทเค็นที่คาดการณ์โดยโมเดลแบบร่าง แบทช์ที่เหลือจะถูกละทิ้ง และการอนุมานจะดำเนินต่อไปกับโมเดลที่ใหญ่กว่าเท่านั้น วิธีการนี้ช่วยให้สามารถถอดรหัสได้อย่างมีประสิทธิภาพในขณะที่ยอมรับลำดับความน่าจะเป็นที่ต่ำกว่า เป็นที่น่าสังเกตว่าการคาดเดานี้ยังไม่ได้รับการยืนยันในขณะนี้

สถาปัตยกรรมการอนุมาน

GPT-4กระบวนการอนุมานของทำงานบนคลัสเตอร์ 128 GPU ซึ่งกระจายไปตามศูนย์ข้อมูลหลายแห่งในสถานที่ต่างกัน โครงสร้างพื้นฐานนี้ใช้เทนเซอร์แบบขนาน 8 ทิศทางและไปป์ไลน์แบบขนาน 16 ทิศทางเพื่อเพิ่มประสิทธิภาพในการคำนวณให้สูงสุด แต่ละโหนดประกอบด้วย GPU 8 ตัว รองรับพารามิเตอร์ได้ประมาณ 130 พันล้านพารามิเตอร์ ด้วยขนาดโมเดล 120 ชั้น GPT-4 สามารถใส่ได้ภายในโหนดที่แตกต่างกัน 15 โหนด อาจมีเลเยอร์น้อยกว่าในโหนดแรกเนื่องจากจำเป็นต้องคำนวณการฝัง ตัวเลือกทางสถาปัตยกรรมเหล่านี้อำนวยความสะดวกในการอนุมานที่มีประสิทธิภาพสูง ซึ่งแสดงให้เห็น OpenAIความมุ่งมั่นของที่จะผลักดันขอบเขตของประสิทธิภาพการคำนวณ

ขนาดชุดข้อมูลและองค์ประกอบ

GPT-4 ได้รับการฝึกฝนเกี่ยวกับโทเค็นที่น่าประทับใจถึง 13 ล้านล้านโทเค็น ทำให้มีคลังข้อความมากมายให้เรียนรู้ อย่างไรก็ตาม ชุดข้อมูลที่รู้จักซึ่งใช้ระหว่างการฝึกไม่สามารถพิจารณาโทเค็นทั้งหมดได้ ในขณะที่ชุดข้อมูลเช่น CommonCrawl และ RefinedWeb มีส่วนสำคัญของ ข้อมูลการฝึกอบรมยังคงมีโทเค็นบางส่วนที่ยังไม่ได้รับการพิจารณา ซึ่งมักเรียกว่าข้อมูล "ลับ"

ข่าวลือและการเก็งกำไร

มีการคาดเดาเกี่ยวกับที่มาของข้อมูลที่ไม่เปิดเผยนี้ ข่าวลือหนึ่งระบุว่ามีเนื้อหาจากแพลตฟอร์มยอดนิยมเช่น Twitter, Reddit และ YouTube โดยเน้นถึงอิทธิพลที่อาจเกิดขึ้นจากเนื้อหาที่ผู้ใช้สร้างขึ้นในการกำหนดรูปแบบ GPT-4ฐานความรู้ของ นอกจากนี้ยังมีการคาดเดาเกี่ยวกับการรวมคอลเลกชันที่กว้างขวางเช่น LibGen ซึ่งเป็นแหล่งเก็บข้อมูลหนังสือหลายล้านเล่ม และ Sci-Hub ซึ่งเป็นแพลตฟอร์มที่ให้การเข้าถึงเอกสารทางวิทยาศาสตร์จำนวนมาก แนวความคิดที่ว่า GPT-4 ได้รับการฝึกอบรมทั่วทั้ง GitHub และยังได้เผยแพร่ในหมู่ผู้ชื่นชอบ AI ด้วย

ความเห็นของผู้สื่อข่าว

แม้ว่าจะมีข่าวลือมากมาย แต่สิ่งสำคัญคือต้องเข้าถึงข่าวลือเหล่านี้ด้วยความระมัดระวัง การฝึกอบรมของ GPT-4 อาจได้รับประโยชน์อย่างมากจากชุดข้อมูลพิเศษที่ประกอบด้วยตำราเรียนของวิทยาลัย ชุดข้อมูลนี้ซึ่งครอบคลุมหลักสูตรและวิชาต่างๆ สามารถประกอบขึ้นด้วยมือด้วยความอุตสาหะ หนังสือเรียนของวิทยาลัยมีฐานความรู้ที่มีโครงสร้างและครอบคลุมซึ่งสามารถนำไปใช้ในการฝึกโมเดลภาษาได้สำเร็จ และแปลงเป็นไฟล์ข้อความได้อย่างง่ายดาย การรวมชุดข้อมูลดังกล่าวอาจทำให้รู้สึกว่า GPT-4 มีความรู้ในหลากหลายสาขา

ความน่าหลงใหลด้วย GPT-4ความรู้

แง่มุมหนึ่งที่น่าสนใจของ GPT-4การฝึกอบรมคือความสามารถในการแสดงความคุ้นเคยกับหนังสือบางเล่ม และแม้กระทั่งการจดจำตัวระบุที่ไม่ซ้ำจากแพลตฟอร์ม เช่น Project Euler นักวิจัยได้พยายามที่จะดึงส่วนของหนังสือที่จำได้ออกมา GPT-4 เพื่อรับข้อมูลเชิงลึกเกี่ยวกับการฝึกอบรม เพิ่มความอยากรู้อยากเห็นเกี่ยวกับการทำงานภายในของโมเดล การค้นพบเหล่านี้เน้นย้ำถึงความสามารถอันน่าอัศจรรย์ของ GPT-4 เพื่อเก็บข้อมูลและเน้นย้ำความสามารถที่น่าประทับใจของโมเดลภาษาขนาดใหญ่

ความอเนกประสงค์ของ GPT-4

หัวข้อและสาขาที่หลากหลายนั้น GPT-4 ดูเหมือนสามารถมีส่วนร่วมกับการแสดงความสามารถรอบด้านได้ ไม่ว่าจะเป็นการตอบคำถามที่ซับซ้อนในวิทยาการคอมพิวเตอร์หรือการเจาะลึกการอภิปรายเชิงปรัชญา GPT-4การฝึกอบรมเกี่ยวกับชุดข้อมูลที่หลากหลายช่วยให้สามารถมีส่วนร่วมกับผู้ใช้จากโดเมนต่างๆ ความเก่งกาจนี้เกิดจากการเปิดเผยแหล่งข้อมูลข้อความที่หลากหลาย ทำให้เป็นเครื่องมือที่มีคุณค่าสำหรับผู้ใช้ในวงกว้าง

อ่านเพิ่มเติมเกี่ยวกับ AI:

ข้อจำกัดความรับผิดชอบ

สอดคล้องกับ แนวทางโครงการที่เชื่อถือได้โปรดทราบว่าข้อมูลที่ให้ไว้ในหน้านี้ไม่ได้มีจุดมุ่งหมายและไม่ควรตีความว่าเป็นคำแนะนำทางกฎหมาย ภาษี การลงทุน การเงิน หรือรูปแบบอื่นใด สิ่งสำคัญคือต้องลงทุนเฉพาะในสิ่งที่คุณสามารถที่จะสูญเสียได้ และขอคำแนะนำทางการเงินที่เป็นอิสระหากคุณมีข้อสงสัยใดๆ สำหรับข้อมูลเพิ่มเติม เราขอแนะนำให้อ้างอิงข้อกำหนดและเงื่อนไขตลอดจนหน้าช่วยเหลือและสนับสนุนที่ผู้ออกหรือผู้ลงโฆษณาให้ไว้ MetaversePost มุ่งมั่นที่จะรายงานที่ถูกต้องและเป็นกลาง แต่สภาวะตลาดอาจมีการเปลี่ยนแปลงได้โดยไม่ต้องแจ้งให้ทราบล่วงหน้า

เกี่ยวกับผู้เขียน

Damir เป็นหัวหน้าทีม ผู้จัดการผลิตภัณฑ์ และบรรณาธิการที่ Metaverse Postซึ่งครอบคลุมหัวข้อต่างๆ เช่น AI/ML, AGI, LLMs, Metaverse และ Web3- สาขาที่เกี่ยวข้อง บทความของเขาดึงดูดผู้ชมจำนวนมากกว่าล้านคนทุกเดือน ดูเหมือนว่าเขาจะเป็นผู้เชี่ยวชาญที่มีประสบการณ์ 10 ปีในด้าน SEO และการตลาดดิจิทัล Damir ได้รับการกล่าวถึงใน Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto และสิ่งพิมพ์อื่น ๆ เขาเดินทางไปมาระหว่างสหรัฐอาหรับเอมิเรตส์ ตุรกี รัสเซีย และ CIS ในฐานะคนเร่ร่อนทางดิจิทัล Damir สำเร็จการศึกษาระดับปริญญาตรีสาขาฟิสิกส์ ซึ่งเขาเชื่อว่าทำให้เขามีทักษะการคิดเชิงวิพากษ์ที่จำเป็นต่อการประสบความสำเร็จในภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลาของอินเทอร์เน็ต 

บทความอื่น ๆ
ดาเมียร์ ยาลอฟ
ดาเมียร์ ยาลอฟ

Damir เป็นหัวหน้าทีม ผู้จัดการผลิตภัณฑ์ และบรรณาธิการที่ Metaverse Postซึ่งครอบคลุมหัวข้อต่างๆ เช่น AI/ML, AGI, LLMs, Metaverse และ Web3- สาขาที่เกี่ยวข้อง บทความของเขาดึงดูดผู้ชมจำนวนมากกว่าล้านคนทุกเดือน ดูเหมือนว่าเขาจะเป็นผู้เชี่ยวชาญที่มีประสบการณ์ 10 ปีในด้าน SEO และการตลาดดิจิทัล Damir ได้รับการกล่าวถึงใน Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto และสิ่งพิมพ์อื่น ๆ เขาเดินทางไปมาระหว่างสหรัฐอาหรับเอมิเรตส์ ตุรกี รัสเซีย และ CIS ในฐานะคนเร่ร่อนทางดิจิทัล Damir สำเร็จการศึกษาระดับปริญญาตรีสาขาฟิสิกส์ ซึ่งเขาเชื่อว่าทำให้เขามีทักษะการคิดเชิงวิพากษ์ที่จำเป็นต่อการประสบความสำเร็จในภูมิทัศน์ที่เปลี่ยนแปลงตลอดเวลาของอินเทอร์เน็ต 

Hot Stories
เข้าร่วมจดหมายข่าวของเรา
ข่าวล่าสุด

ความอยากอาหารของสถาบันเติบโตขึ้นสู่ Bitcoin ETFs ท่ามกลางความผันผวน

การเปิดเผยผ่านการยื่นเอกสาร 13F เผยให้เห็นนักลงทุนสถาบันที่มีชื่อเสียงกำลังเล่น Bitcoin ETFs ซึ่งตอกย้ำถึงการยอมรับที่เพิ่มขึ้นของ ...

รู้เพิ่มเติม

วันพิพากษามาถึง: ชะตากรรมของ CZ แขวนอยู่ในสมดุลขณะที่ศาลสหรัฐฯ พิจารณาคำร้องของ DOJ

ฉางเผิง จ้าว เตรียมเผชิญโทษจำคุกในศาลสหรัฐฯ ในเมืองซีแอตเทิลวันนี้

รู้เพิ่มเติม
เข้าร่วมชุมชนเทคโนโลยีที่เป็นนวัตกรรมของเรา
อ่านเพิ่มเติม
อ่านเพิ่มเติม
NuLink เปิดตัวบน Bybit Web3 แพลตฟอร์ม IDO ขั้นตอนการสมัครสมาชิกขยายไปจนถึงวันที่ 13 พฤษภาคม
ตลาด รายงานข่าว เทคโนโลยี
NuLink เปิดตัวบน Bybit Web3 แพลตฟอร์ม IDO ขั้นตอนการสมัครสมาชิกขยายไปจนถึงวันที่ 13 พฤษภาคม
May 9, 2024
UXLINK และ Binance ร่วมมือกันในแคมเปญใหม่ โดยเสนอคะแนน UXUY 20 ล้านให้กับผู้ใช้และ Airdrop รางวัล
ตลาด รายงานข่าว เทคโนโลยี
UXLINK และ Binance ร่วมมือกันในแคมเปญใหม่ โดยเสนอคะแนน UXUY 20 ล้านให้กับผู้ใช้และ Airdrop รางวัล
May 9, 2024
Side Protocol เปิดตัว Testnet ที่สร้างแรงจูงใจและเปิดตัวระบบ Insider Point ช่วยให้ผู้ใช้สามารถรับคะแนน SIDE
ตลาด รายงานข่าว เทคโนโลยี
Side Protocol เปิดตัว Testnet ที่สร้างแรงจูงใจและเปิดตัวระบบ Insider Point ช่วยให้ผู้ใช้สามารถรับคะแนน SIDE
May 9, 2024
Web3 และกิจกรรม Crypto ในเดือนพฤษภาคม 2024: การสำรวจเทคโนโลยีใหม่และแนวโน้มที่เกิดขึ้นใหม่ใน Blockchain และ DeFi
ย่อยอาหาร บัญชีธุรกิจ ตลาด เทคโนโลยี
Web3 และกิจกรรม Crypto ในเดือนพฤษภาคม 2024: การสำรวจเทคโนโลยีใหม่และแนวโน้มที่เกิดขึ้นใหม่ใน Blockchain และ DeFi
May 9, 2024
CRYPTOMERIA LABS PTE. บจก.