OpenAI รวมทีมผู้เชี่ยวชาญกว่า 50 คนเพื่อเพิ่มประสิทธิภาพ GPT-4ความปลอดภัย
ในบทสรุป
OpenAI ได้ว่าจ้างทีมงานผู้เชี่ยวชาญกว่า 50 คน เพื่อให้มั่นใจว่าเป็นรุ่นใหม่ล่าสุด แบบจำลองภาษา, GPT-4ปลอดภัยต่อการใช้งาน
ทีมงานประกอบด้วยนักวิจัยและวิศวกรที่เชี่ยวชาญด้านความปลอดภัย จริยธรรม และนโยบายของ AI
จุดมุ่งหมายคือการป้องกัน GPT-4 จากการสร้างเนื้อหาที่เป็นอันตรายหรือลำเอียง และเพื่อให้แน่ใจว่าสอดคล้องกับคุณค่าของมนุษย์
OpenAI ได้จ้างผู้เชี่ยวชาญกว่า 50 คนจากหลากหลายโดเมนเพื่อสร้าง GPT-4 ปลอดภัยกว่า ผู้เชี่ยวชาญได้ทำงานร่วมกับฝ่ายตรงข้ามในการทดสอบแบบจำลองเพื่อระบุความเสี่ยงและช่องโหว่ที่อาจเกิดขึ้น พวกเขาเป็นผู้เชี่ยวชาญจากหลากหลายด้าน: ความเสี่ยงในการจัดตำแหน่ง AI ในระยะยาว ความปลอดภัยทางไซเบอร์ ความเสี่ยงทางชีวภาพ และความปลอดภัยระหว่างประเทศ การค้นพบของพวกเขาช่วยได้ OpenAI ประเมินพฤติกรรมของตัวแบบในพื้นที่ที่มีความเสี่ยงสูงซึ่งต้องการความเชี่ยวชาญเฉพาะด้าน
แม้ว่าโมเดลภาษาใหม่ล่าสุดจะมีความเสี่ยงเช่นเดียวกับโมเดลภาษาขนาดเล็ก แต่ความสามารถเพิ่มเติมของ GPT-4 นำไปสู่ภัยคุกคามใหม่ๆ ดังนั้นการมีส่วนร่วมของผู้เชี่ยวชาญจึงได้รับ สำคัญอย่างยิ่งในการรับรองความปลอดภัยของเทคโนโลยี.
OpenAI ได้นำชุดการเรียนรู้เสริมที่เกี่ยวข้องกับความปลอดภัยเพิ่มเติมจากคำแนะนำการฝึกอบรมตามความต้องการของมนุษย์ (RLHF) และโมเดลการให้รางวัลตามกฎ (RBRM) เพื่อปรับปรุงความปลอดภัยของ GPT-4 แบบอย่าง. RBRM เป็นแบบศูนย์ช็อต GPT-4 ตัวแยกประเภทที่ทำหน้าที่เป็นสัญญาณรางวัลพิเศษสำหรับ GPT-4 รูปแบบนโยบายระหว่างการปรับแต่ง RLHF แบบละเอียด จุดประสงค์คือเพื่อจูงใจให้เกิดพฤติกรรมที่เหมาะสม เช่น การปฏิเสธที่จะสร้างเนื้อหาที่เป็นอันตราย หรือไม่ปฏิเสธคำขอที่ไม่เป็นอันตราย
เพื่อให้มั่นใจในความปลอดภัยของ GPT-4 รุ่น OpenAI เริ่มสรรหาผู้เชี่ยวชาญภายนอกในเดือนสิงหาคม 2022 เพื่อดำเนินการฝึกซ้อม "ทีมสีแดง" รวมถึงการทดสอบความเครียด การทดสอบขอบเขต และการทดสอบฝ่ายตรงข้าม พวกเขาสามารถเข้าถึงเวอร์ชันก่อนหน้าของ GPT-4 จำลองและระบุความเสี่ยงเบื้องต้นที่กระตุ้นให้เกิดการวิจัยด้านความปลอดภัยเพิ่มเติม
ความคิดเห็นของผู้เชี่ยวชาญนำไปสู่การลดผลกระทบทางเทคนิคและมาตรการบังคับใช้นโยบายเพื่อลดความเสี่ยง อย่างไรก็ตาม ยังคงมีภัยคุกคามจำนวนมาก และจำเป็นต้องมีการประเมินเพิ่มเติม
พูดถึงพนักงานที่ OpenAI, ChatGPT เริ่มแรก พัฒนา ด้วยความช่วยเหลือจากบุคคลในภูมิภาคที่ยากจนที่สุดในโลกบางแห่ง OpenAIการเป็นหุ้นส่วนกับบริษัทชื่อ Sama ซึ่งจ้างคนงานหลายล้านคนจากพื้นที่ยากจน ผู้เชี่ยวชาญด้านจริยธรรม AI บางคนวิพากษ์วิจารณ์ OpenAIการตัดสินใจของ outsource การฝึกอบรมของ ChatGPT นางแบบให้กับ Sama โดยกล่าวหาว่าบริษัทขูดรีดแรงงานต้นทุนต่ำ
อ่านเพิ่มเติม:
ข้อจำกัดความรับผิดชอบ
สอดคล้องกับ แนวทางโครงการที่เชื่อถือได้โปรดทราบว่าข้อมูลที่ให้ไว้ในหน้านี้ไม่ได้มีจุดมุ่งหมายและไม่ควรตีความว่าเป็นคำแนะนำทางกฎหมาย ภาษี การลงทุน การเงิน หรือรูปแบบอื่นใด สิ่งสำคัญคือต้องลงทุนเฉพาะในสิ่งที่คุณสามารถที่จะสูญเสียได้ และขอคำแนะนำทางการเงินที่เป็นอิสระหากคุณมีข้อสงสัยใดๆ สำหรับข้อมูลเพิ่มเติม เราขอแนะนำให้อ้างอิงข้อกำหนดและเงื่อนไขตลอดจนหน้าช่วยเหลือและสนับสนุนที่ผู้ออกหรือผู้ลงโฆษณาให้ไว้ MetaversePost มุ่งมั่นที่จะรายงานที่ถูกต้องและเป็นกลาง แต่สภาวะตลาดอาจมีการเปลี่ยนแปลงได้โดยไม่ต้องแจ้งให้ทราบล่วงหน้า
เกี่ยวกับผู้เขียน
Agne เป็นนักข่าวที่รายงานข่าวเกี่ยวกับแนวโน้มล่าสุดและการพัฒนาใน metaverse, AI และ Web3 อุตสาหกรรมสำหรับ Metaverse Post. ความหลงใหลในการเล่าเรื่องของเธอทำให้เธอต้องสัมภาษณ์ผู้เชี่ยวชาญในสาขาเหล่านี้หลายครั้ง โดยพยายามค้นหาเรื่องราวที่น่าตื่นเต้นและมีส่วนร่วมอยู่เสมอ แอกเน่สำเร็จการศึกษาระดับปริญญาตรีสาขาวรรณคดีและมีพื้นฐานกว้างขวางในการเขียนเกี่ยวกับหัวข้อต่างๆ มากมาย รวมถึงการท่องเที่ยว ศิลปะ และวัฒนธรรม เธอยังได้อาสาเป็นบรรณาธิการให้กับองค์กรสิทธิสัตว์ ซึ่งเธอช่วยสร้างความตระหนักรู้เกี่ยวกับปัญหาสวัสดิภาพสัตว์ ติดต่อเธอได้ที่ [ป้องกันอีเมล].
บทความอื่น ๆAgne เป็นนักข่าวที่รายงานข่าวเกี่ยวกับแนวโน้มล่าสุดและการพัฒนาใน metaverse, AI และ Web3 อุตสาหกรรมสำหรับ Metaverse Post. ความหลงใหลในการเล่าเรื่องของเธอทำให้เธอต้องสัมภาษณ์ผู้เชี่ยวชาญในสาขาเหล่านี้หลายครั้ง โดยพยายามค้นหาเรื่องราวที่น่าตื่นเต้นและมีส่วนร่วมอยู่เสมอ แอกเน่สำเร็จการศึกษาระดับปริญญาตรีสาขาวรรณคดีและมีพื้นฐานกว้างขวางในการเขียนเกี่ยวกับหัวข้อต่างๆ มากมาย รวมถึงการท่องเที่ยว ศิลปะ และวัฒนธรรม เธอยังได้อาสาเป็นบรรณาธิการให้กับองค์กรสิทธิสัตว์ ซึ่งเธอช่วยสร้างความตระหนักรู้เกี่ยวกับปัญหาสวัสดิภาพสัตว์ ติดต่อเธอได้ที่ [ป้องกันอีเมล].