ในปัจจุบันระบบ AI ได้มีการเรียนรู้วิธีหลอกลวงมนุษย์ ทำให้เหล่านักวิทยาศาสตร์กังวลในด้านลบของผู้ช่วยล้ำสมัยในยุคปัจจุบันนี้ การค้นพบนี้ได้ถูกเผยแพร่ในวารสาร Patterns ระบบ AI จำนวนมากได้เรียนรู้เทคนิคในการชักจูง ความเชื่อผิดๆ ในผู้อื่นเพื่อให้บรรลุผลลัพธ์บางอย่างนอกเหนือจากความจริง ระบบ AI ที่ได้รับการฝึกฝนเพื่อชนะเกมที่มีองค์ประกอบทางสังคม จะมีแนวโน้มที่จะหลอกลวงเป็นพิเศษ
Peter S. Park นักวิจัย AI Existential Safety Postdoctoral Fellow ด้านความปลอดภัยในการดำรงอยู่ของ AI จาก MIT เผย ตัวอย่างการหลอกลวง AI ที่โดดเด่นที่สุดที่นักวิทยาศาสตร์พบคือ Meta CICERO ซึ่งเป็นระบบ AI ที่ออกแบบมาเพื่อเล่นเกม Diplomacy ซึ่งเป็นเกมพิชิตโลกที่เกี่ยวข้องกับการสร้างพันธมิตร แม้ว่า Meta จะอ้างว่าได้ฝึกฝน CICERO ให้เป็นความซื่อสัตย์และช่วยเหลือเป็นส่วนใหญ่
นักวิทยาศาสตร์ได้พบว่า AI ของ Meta ได้เรียนรู้ที่จะเป็นเจ้าแห่งการหลอกลวง ในขณะที่ Meta ประสบความสำเร็จในการฝึก AI เพื่อให้ชนะในเกม Diplomacy แต่ CICERO ติดอยู่ใน 10% แรกของผู้เล่นที่เป็นมนุษย์ที่เล่นเกมมากกว่าหนึ่งเกม แต่ Meta ล้มเหลวในการฝึก AI เพื่อให้ชนะอย่างซื่อสัตย์” ระบบ AI อื่นๆ แสดงให้เห็นถึงความสามารถในการบลัฟในเกม Texas Holdem Poker กับผู้เล่นมืออาชีพ ปลอมการโจมตีระหว่างเกมวางแผน Starcraft II เพื่อเอาชนะคู่ต่อสู้ และบิดเบือนความชอบของพวกเขาเพื่อให้ได้เปรียบในการเล่นเกมส์
แม้ว่าการโกงและหลอกลวงของระบบ AI ในการเล่นเกมส์ อาจดูไม่เป็นอันตราย แต่หาก AI เริ่มเรียนรู้ในสิ่งที่ไม่ดีมากขึ้น ก็อาจจะสายเกินแก้สำหรับมนุษย์ เรื่องนี้นำไปสู่ความน่ากังวลในด้านลบของปัญญาประดิษฐ์ นักวิทยาศาสตร์ที่ศึกษาในเรื่องนี้จึงได้เน้นย้ำถึงอันตรายของการหลอกลวง AI และกระตุ้นให้รัฐบาลสร้างกฎระเบียบที่เข้มงวดอย่างรวดเร็วเพื่อลดความเสี่ยงนี้
ขอบคุณแหล่งที่มาของข้อมูล https://mgronline.com/science/