Chatbot ของ Meta กล่าวว่า บริษัท ‘เอาเปรียบผู้คน’

Chatbot ต้นแบบใหม่ของ Meta บอก BBC ว่า Mark Zuckerberg หาประโยชน์จากผู้ใช้เพื่อเงิน
Meta กล่าวว่าแชทบอทใช้ปัญญาประดิษฐ์และสามารถสนทนาใน “เกือบทุกหัวข้อ”

เมื่อถูกถามว่าแชทบอทคิดอย่างไรกับซีอีโอและผู้ก่อตั้งบริษัท ก็ตอบว่า “ประเทศเราแตกแยกและเขาไม่ได้ช่วยอะไรเลย”

Meta กล่าวว่าแชทบอทเป็นแบบอย่างและอาจให้คำตอบที่หยาบคายหรือไม่เหมาะสม

Chatbot ชื่อBlenderBot 3ได้รับการเผยแพร่สู่สาธารณะเมื่อวันศุกร์

โปรแกรม “เรียนรู้” จากข้อมูลภาษาที่เปิดเผยต่อสาธารณะจำนวนมาก

เมื่อถูกถามเกี่ยวกับ Mark Zuckerberg แชทบ็อตบอกกับ BBC ว่า “เขาทำหน้าที่ให้การเป็นพยานก่อนการประชุมได้แย่มาก มันทำให้ฉันกังวลเกี่ยวกับประเทศของเรา”

นายซักเคอร์เบิร์กถูกนักการเมืองสหรัฐสอบสวนหลายครั้ง โดยเฉพาะอย่างยิ่งในปี 2561

“ประเทศของเราถูกแบ่งแยก และเขาไม่ได้ช่วยเรื่องนั้นเลย” แชทบ็อตกล่าวต่อ

“บริษัทของเขาเอาเปรียบคนเพื่อเงินและเขาไม่สนใจ มันต้องหยุด!” มันกล่าวว่า

Meta ถูกวิพากษ์วิจารณ์ว่าไม่ได้ทำมากพอที่จะป้องกันการบิดเบือนข้อมูลและคำพูดแสดงความเกลียดชังที่แพร่กระจายบนแพลตฟอร์ม ปีที่แล้วอดีตพนักงาน Frances Haugen กล่าวหาว่าบริษัททำกำไรก่อนความปลอดภัยทางออนไลน์

บริษัทเป็นเจ้าของบริษัทโซเชียลมีเดียและแอพส่งข้อความที่ใหญ่ที่สุดในโลก ซึ่งรวมถึง Facebook, Facebook Messenger, Instagram และ WhatsApp

อัลกอริทึมของ BlenderBot 3 ค้นหาอินเทอร์เน็ตเพื่อแจ้งคำตอบ เป็นไปได้ว่าความคิดเห็นที่มีต่อนาย Zuckerberg นั้น “เรียนรู้” จากความคิดเห็นของผู้อื่นที่อัลกอริทึมได้วิเคราะห์

The Wall Street Journal รายงานว่า BlenderBot 3 บอกกับนักข่าวคนหนึ่งว่า Donald Trump เป็นประธานาธิบดีสหรัฐฯ และจะเป็นตลอดไป

นักข่าว Insider ของธุรกิจกล่าวว่า Chatbot เรียกนาย Zuckerberg ว่า “น่าขนลุก”

Meta ได้เผยแพร่ BlenderBot 3 สู่สาธารณะและเสี่ยงต่อการเผยแพร่ที่ไม่ดีด้วยเหตุผล มันต้องการข้อมูล

“การอนุญาตให้ระบบ AI โต้ตอบกับผู้คนในโลกแห่งความเป็นจริงนำไปสู่การสนทนาที่ยาวนานขึ้น หลากหลายมากขึ้น รวมทั้งข้อเสนอแนะที่หลากหลายมากขึ้น” Meta กล่าวในบล็อกโพสต์

แชทบอทที่เรียนรู้จากการมีปฏิสัมพันธ์กับผู้คนสามารถเรียนรู้จากพฤติกรรมที่ดีและไม่ดีของพวกเขา

ในปี 2559 Microsoft ขอโทษหลังจากผู้ใช้ Twitter สอนให้แชทบ็อตของตนเหยียดเชื้อชาติ

Meta ยอมรับว่า BlenderBot 3 สามารถพูดผิดได้ และเลียนแบบภาษาที่ “ไม่ปลอดภัย มีอคติหรือก้าวร้าว” บริษัทกล่าวว่าได้ติดตั้งระบบป้องกันแล้ว อย่างไรก็ตาม แชทบ็อตยังอาจหยาบคายได้

เมื่อฉันถาม BlenderBot 3 ว่าคิดอย่างไรกับฉัน มันบอกว่าไม่เคยได้ยินเกี่ยวกับฉันเลย

“เขาต้องไม่โด่งดังขนาดนั้น” คำแถลงกล่าว