OpenAI เตรียมบังคับใช้การยืนยันตัวตนสำหรับองค์กรเพื่อเพิ่มความปลอดภัยและป้องกันการใช้งาน AI ผิดกฎหมาย
วันที่โพสต์: 14 เมษายน 2568 19:40:02 การดู 2 ครั้ง ผู้โพสต์ baikhao
OpenAI เตรียมบังคับใช้กระบวนการยืนยันตัวตนสำหรับองค์กรที่ต้องการเข้าถึงโมเดล AI ขั้นสูง โดยการยืนยันตัวตนดังกล่าวจะช่วยเพิ่มความปลอดภัยและป้องกันการใช้งานในทางที่ผิดจากผู้พัฒนาบางรายที่อาจละเมิดนโยบายการใช้งาน
กระบวนการที่ชื่อว่า Verified Organization จะต้องใช้เอกสารยืนยันตัวตนจากรัฐบาลของประเทศที่รองรับ API ของ OpenAI โดยแต่ละองค์กรสามารถยืนยันตัวตนได้เพียงครั้งเดียวทุก ๆ 90 วัน และไม่ทุกรายจะมีสิทธิ์ในการยืนยันตัวตน ซึ่ง OpenAI ระบุว่าเป็นการเพิ่มมาตรการเพื่อลดความเสี่ยงในการใช้งาน AI อย่างไม่ปลอดภัย พร้อมกับให้การเข้าถึงโมเดลที่ซับซ้อนได้สำหรับผู้พัฒนาโดยทั่วไป
ในแถลงการณ์ของ OpenAI ระบุว่า "เรามีความรับผิดชอบในการทำให้ AI สามารถเข้าถึงได้อย่างกว้างขวางและปลอดภัย แต่ก็ต้องรับมือกับการใช้งานที่อาจไม่เหมาะสมจากบางกลุ่ม" ซึ่งในบางกรณีที่มีการใช้งาน OpenAI API ในทางที่ไม่ตรงตามนโยบาย บริษัทจึงตัดสินใจเพิ่มการยืนยันตัวตนนี้เพื่อป้องกันเหตุการณ์ที่ไม่พึงประสงค์
การเพิ่มขั้นตอนการยืนยันตัวตนครั้งนี้อาจเป็นส่วนหนึ่งของความพยายามในการเสริมความปลอดภัยของผลิตภัณฑ์ AI ของ OpenAI ซึ่งกำลังพัฒนาให้มีความซับซ้อนและมีขีดความสามารถที่สูงขึ้นอย่างต่อเนื่อง นอกจากนี้ OpenAI ยังได้แถลงถึงการตรวจจับและการป้องกันการใช้งานที่ไม่เหมาะสมจากกลุ่มที่อาจเกี่ยวข้องกับการโจรกรรมข้อมูล เช่น การแฮก API ที่มีการเชื่อมโยงกับห้องทดลอง AI ในจีน
การตรวจสอบดังกล่าวมีเป้าหมายเพื่อป้องกันการขโมยข้อมูลจาก OpenAI API หลังจากมีรายงานว่าในปี 2024 กลุ่มที่เชื่อมโยงกับ DeepSeek ซึ่งเป็นห้องทดลอง AI จากจีน ได้ขโมยข้อมูลจำนวนมากจาก OpenAI เพื่อนำไปใช้ในการฝึกโมเดล ซึ่งถือเป็นการละเมิดข้อกำหนดของบริษัท
OpenAI ได้ตัดสินใจปิดการเข้าถึงบริการของตนในประเทศจีนเมื่อปีที่แล้ว เพื่อเพิ่มความเข้มงวดในการควบคุมการใช้งาน และป้องกันการขโมยข้อมูลที่อาจเกิดขึ้นในอนาคต
ที่มา : techcrunch
แท็ก: OpenAI