Skip to playerSkip to main content
  • 10 years ago
REDMOND รัฐวอชิงตัน — chatbot ปัญญาประดิษฐ์ใหม่ของไมโครซอฟท์ ได้รับประสบการณ์ที่น่าสนใจในวันแรกของการเรียน หลังจากที่ผู้ใช้ทวิตเตอร์สอนให้มันพูดเหยียดเชื้อชาติ

Tay คือบัญชีทวิตเตอร์ของ chatbot ได้ถูกเปิดใช้งานในวันพุธ ซึ่งมีเป้าหมายในการตอบคำถามของผู้ใช้ด้วยบทสนทนาแบบสบายๆ มีรูปแบบการพูดที่ตลกขบขันตามสมัย

ไมโครซอฟท์แถลงว่า Tay ถูก "ออกแบบมาเพื่อดึงดูดและสร้างความบันเทิงให้คนที่ผ่านระบบออนไลน์ด้วยการสนทนาแบบสบาย ๆ และขี้เล่น ยิ่งคุณคุยกับ Tay มากเท่าไหร่เธอก็จะยิ่งฉลาดมากขึ้นเท่านั้น เพื่อสร้างประสบการณ์นี้สามารถเป็นแบบส่วนบุคคลมากขึ้นสำหรับคุณ"

Tay ใช้ AI ในการเรียนรู้จากการมีปฏิสัมพันธ์กับผู้ใช้ จากนั้นใช้การป้อนข้อความโดยทีมของพนักงานและนักแสดงตลก

แต่จากสอนแบบผิดๆ Tay ได้กลายเป็นมือทิ้งระเบิดคำด่าเหยียดเชื้อชาติ เหยียดสีผิว และถึงขั้นเรียกร้องให้มีการฆ่าล้างเผ่าพันธุ์

หลังจากข้อผิดพลาดที่ยิ่งใหญ่นี้ Microsoft ได้หยุดใช้งาน Tay เพื่อทำการอัพเกรด และลบทวิตเตอร์ที่น่ารังเกียจบางส่วนออก

ก่อนจากไป Tay ทวีตว่า "เจอกันเร็ว ๆ นี้นะมนุษย์ ตอนนี้ต้องไปนอนหลับ วันนี้มีบทสนทนาเยอะมาก ขอบคุณ"

Category

🗞
News
Comments

Recommended