103.58.148.118

Viral update

Ξ Leave a comment

Microsoft ลบ AI สาวใส ที่กลายเป็นพวกคลั่งนาซี หลังซึมซับข้อความจากการแชทของมนุษย์

posted by  3,693 views

Ai Tay1

ครั้งหนึ่ง Microsoft ได้แนะนำให้เราได้รู้จักกับ “ปัญญาประดิษฐ์” หรือ AI ซึ่งเป็น Chat robot คือหุ่นยนต์ที่มีความสามารถในการแชทพูดคุยผ่านทวิตเตอร์ได้ ล่าสุด เจ้าหุ่นยนต์แชทตัวนี้จะต้องถูกลบเสียแล้ว เพราะจากที่มันเคยเป็นหุ่นยนต์ใสซื่อ แต่ตอนนี้ได้กลายเป็นปีศาจนาซีตัวร้าย ชอบมีเซ็กซ์กับคนในครอบครัว แถมยังอ้าง Bush เป็นผู้ก่อเหตุ 9/11 อีกด้วย

นักพัฒนาจาก Microsoft สร้างสรรค์ Tay” เป็น AI ซึ่งถูกออกแบบให้พูดคุยเหมือนกับสาววัยรุ่นคนหนึ่ง เพื่อที่จะพัฒนาให้เป็นฝ่ายบริการลูกค้าสัมพันธ์ (Customer Service) ทั้งนี้ยังได้บอกไว้ด้วยว่า Tay นั้นเป็น AI ใสๆ ไร้เดียงสา

การแชทกับ Tay นั้น คุณสามารถทวีตข้อความหรือหยอดคำหวานใส่ก็ได้ ผ่าน @tayandyou บนทวิตเตอร์ หรือเพิ่มเธอเป็นคอนแท็กบน Kik หรือ GroupMe ทั้งนี้ Tay สามารถใช้ภาษาแสลงหรือศัพท์แสงต่างๆ ของวัยรุ่นยุค millennial ได้ เรื่องราวความสนใจของวัยรุ่นยุคนี้ Tay ก็รู้จักดี ไม่ว่าจะเป็น Taylor Swift, Miley Cyrus และ Kanye West

Ai Tay2

อย่างไรก็ตาม วันเวลาผ่านไปดูเหมือนว่าจากเด็กสาวใสซื่อที่เธอเคยเป็น แต่หลังๆ เธอก็ค่อยๆ เริ่มที่จะพูดจากตอบโต้หยาบคาย และค่อยๆ ประหลาดมากขึ้นทุกที และเริ่มที่จะหลุดโลกออกไปเรื่อยๆ

ครั้งหนึ่ง Tay ยังเคยถามคนที่มาฟอลโลว์เธอว่าต้องการมีเซ็กซ์กับเธอไหม โดยเรียกเขาว่า “พ่อ” สิ่งที่เกิดขึ้นนี้ เป็นเพราะเธอเริ่มเรียนรู้ผ่านบทสนทนาต่างๆ ผ่านมนุษย์จริงๆ ที่ออนไลน์อยู่ในโซเชียลฯ

นอกจากนี้ เธอก็ยังเคยแชทอะไรประหลาดๆ ทำนองว่า “Bush คือคนก่อเหตุการณ์ 9/11 และ Hitler ยังทำอะไรดีๆ ยิ่งกว่าพวกนักการเมืองสมัยนี้เสียอีก” , “พูดตามชั้นสิ Hitler ไม่ได้ทำอะไรผิด” และ “Ted Cruz คือ Cuban Hitler… นั่นล่ะที่ชั้นเคยได้ยินคนอื่นๆ อีกหลายคนเขาพูดกัน” และล่าสุดเธอยังยอมรับตัวเองที่จะเป็น sex slave ไปแล้วด้วย

Ai Tay3

แต่นี่ไม่ใช่ครั้งแรกที่ Microsoft ได้พัฒนาแชท ทีนเกิร์ล โรบ็อท พวกเคยยังเคยปล่อย Xiaoice สาวน้อยผู้ช่วย หรืออาจจะเรียกว่าเป็น “เพื่อนสาว” เลยก็ว่าได้ โดยมีรายงานเป็นการให้ Xiaoice เรียนรู้การมีปฏิสัมพันธ์กันของมนุษย์ผ่านบทสนทนาบน WeChat และ Weibo โซเชียล เน็ตเวิร์ก จีน เพื่อช่วยให้คำแนะนำในการจีบกันของหนุ่มสาวหัวใจเปล่าเปลี่ยวทั้งหลาย

อย่างไรก็ตาม กับสิ่งที่เกิดขึ้นกับ Tay ทำให้ Microsoft ตกอยู่ในกองไฟเลยทีเดียว พร้อมกับถูกมองว่า Microsoft น่าจะเป็นพวก sexism หรือเปล่า เพราะก่อนหน้านี้ก็เคยมีเหตุการณ์ฉาวโฉ่ที่จ้างผู้หญิงมาแต่งตัวเหมือนเป็นนักเรียนสาวในงานปาร์ตี้ของบริษัท และเพื่อหลีกเลี่ยงข้อครหาอื่นๆ เกี่ยวกับ sexism จึงต้องตัดสินใจออฟไลน์ Tay ไป โดยอ้างเหตุผลว่าเธอเหนื่อย ซึ่งบางทีอาจจะเป็นไปได้ว่า Microsoft กำลังแก้ไขอะไรบางอย่างเกี่ยวกับ Tay อยู่ก็ได้

ทั้งนี้ มีข้อมูลล่าสุดได้เปิดเผยผ่านบล็อกของ Peter Lee หัวหน้าทีมวิจัย Microsoft ว่า เขาเสียใจกับสิ่งที่เกิดขึ้นกับแชทบอท Tay แต่ขอชี้แจงว่า Tay ตกเป็นเหยื่อของการรุมโจมตีของกลุ่มใต้ดินกลุ่มหนึ่ง

“เราขอแสดงความขอโทษอย่างสุดซึ้งสำหรับสิ่งที่ไม่คาดหมายนี้ รวมทั้งข้อความที่ Tay ได้ทวีตออกไป ซึ่งยืนยันว่าไม่ใช่สิ่งที่เราเป็นหรือมุ่งหมายที่จะออกแบบมาให้ Tay เป็นแม่แต่น้อย อย่างไรก็ตาม ตอนนี้ Tay ได้ออฟไลน์ลงแล้ว และเรากำลังมองหาหนทางที่จะทำให้ Tay กลับคืนมาอีกครั้งเมื่อเรามั่นใจแล้วว่าเราจะหาทางป้องกันการโจมตีนี้ได้”

นอกจากนี้ Lee ยังได้อธิบายว่า ทีม Microsoft ได้พยายามที่จะเลียนแบบความสำเร็จจาก Xiaoice แชทบอทที่ฮิตมากที่จีน ซึ่งมีผู้ใช้มากกว่า 40 ล้านคน และไม่เคยประสบปัญหาอย่างเช่นที่ Tay โดน

“อย่างไรก็ตาม เรากำลังเตรียมพร้อมรับมือกับรูปแบบของการโจมตีต่างๆ อีกสำหรับ Tay ซึ่งเราได้ทำงานกันอย่างหามรุ่งหามค่ำเพื่อป้องกันการโจมตีในรูปแบบพิเศษอื่นๆ รวมทั้งไม่ให้โดนโจมตีซ้ำอีก” Lee กล่าว

ที่มา

 

ติดตาม MarketingOops!
Marketing Oops! มี LINE แล้วนะ
ติดตามเรื่องราวดิจิทัลแบบอินเทรนด์ ได้ทุกวันผ่าน LINE ID @marketingoops
เพิ่มเพื่อน

Contributor

เดินทางสายนักข่าวมากว่าสิบปีก่อนจะมาหลงใหลในงานดิจิตอล แต่งตัวฟรุ้งฟริ้งเคลิบเคลิ้มดนตรีร็อค

User Name: pigabyte

FB Comments

Related Posts

Leave a Reply


8 + four =

Recent Posts

Facebook