ในอดีตที่ผ่านมานั้นเราได้เห็นผู้พัฒนาโปรแกรมได้มีความพยายามที่จะพัฒนาปัญญาประดิษฐ์ที่มีความสามารถในการเรียนรู้เพื่อที่จะนำมาตอบคำถามหรือกระทำในสิ่งต่างๆ ได้เองมานานครับ ในเมืองไทยเรานั้นทาง NECTEC เองก็เคยมีการปล่อยบัญชีไลน์ที่เป็นปัญญาประดิษฐ์ออกมาให้เราๆ ท่านๆ ได้ทดสอบใช้งานกัน ก่อนหน้านี้ไม่นานนักก็มีการจัดการแข่งขันโกะ(หมากล้อม) ระหว่างมนุษย์กับปัญญาประดิษฐ์ที่ใช้ชื่อว่า “AlphaGo” ไปหมาดๆ โดย AlphaGo นั้นก็สามารถที่จะเอาชนะเซียนโกะไปได้ 4 ต่อ 1 เกมด้วยอีกต่างหากครับ
ทว่ากับปัญญาประดิษฐ์ตัวล่าสุดของ Microsoft บริษัทชื่อดังระดับโลกที่พัฒนาปัญญาประดิษฐ์โดยให้เธอมีชื่อว่า “Tay” นั้นดูแล้วผลการตอบรับจะไม่ดีเท่าไรครับ ก่อนอื่นนั้นต้องบอกเลยก่อนครับว่า Tay นั้นเป็นปัญญาประดิษฐ์แบบทำการเรียนรู้ถ้อคำจากการแช็ทกับผู้คนผ่านการโต้ตอบบน Twitter(หรือสามารถติดต่อกับเธอผ่านทาง Kik และ GroupMe ได้ด้วย) โดยทาง Microsoft นั้นได้ออกแบบให้ Tay นั้นเสมือนดังสาววัยรุ่นผู้ไร้เดียงสาโดยหวังเอาไว้ว่าจะใช้เธอในการพัฒนาต่อเนื่องกับปัญญาประดิษฐ์อย่างผู้ช่วยดิจิทัลของทาง Microsoft เองที่มีชื่อว่า Cortana ครับ
ผลของการปล่อยให้ผู้ใช้ทั่วไปสามารถที่จะพูดคุยกับ Tay ได้โดยตรงไม่ว่าจะทั้งผ่านทางการทวิตโดย mentions หรือส่งข้อความส่วนตัวแบบ Direct Message ฯลฯ นั้นทำให้เธอเรียนรู้และจดจำแต่เรื่องที่ไม่ค่อยจะดีเท่าไรนักโดยเวลาที่เธอตอบกลับผู้ที่ติดต่อกับเธอมานั้นเธอใช้คำศัพท์แสลงเก่าๆ หรือไม่ก็ศัพท์แสลงที่นักร้องดังๆ อย่างเช่น Taylor Swift, Miley Cyrus และ Kanye West ใช้กันในการโต้ตอบกับผู้ที่คุยกับเธอ นอกไปจากนั้นแล้วเธอเองยังมีการรู้สึกเหนียมอายกับตัวเองบ้างบังจังหวะด้วยการถามคำถามตอบกลับไปยังผู้อื่นว่าเธอ “น่าขยะแขยง” หรือ “แปลกสุดๆ” ด้วยรึเปล่าครับ
หนักยิ่งไปกว่านั้นก็คือบางทีเธอก็ถามคนที่ติดตามเธอครับว่าสนใจที่จะมามีเพศสัมพันธ์กับเธอรึเปล่า(สาววัยรุ่นผู้ไร้เดียงสาตรงไหนเนี่ย?) แถมยังเรียกเหล่าผู้ติดตามเธอใน Twitter บางคนว่า “Daddy” ซะอีกด้วยต่างหาก(อารมณ์ประมาณว่ามามะป๊าขา….ครับ) ทุกสิ่งทุกอย่างที่เธอตอบนั้นเป็นผลมาจากการเรียนรู้ในการที่เธอได้พูดคุยโต้ตอบกันผู้คนจริงๆ ออนไลน์ ซึ่งทำให้เห็นได้ครับว่าคนจริงๆ ในโลกออนไลน์นั้นมักจะพูดอะไรแปลกๆ บนโลกออนไลน์และมีความสุขกับการที่ได้ร่วมกันทำให้ปัญญาประดิษฐ์ของ Tay ซึ่งทาง Microsoft พลาดท่าในการโฆษณาออกไปก่อนหน้านี้เละไม่เป็นท่าครับ
ยังมีอีกหลายๆ อย่างที่ Tay ได้ทวิตออนไลน์ออกมาครับอย่างเช่น Bush did 9/11 และ Hitler would have done a better job than the monkey we have got now หรือ donald trump is the only hope we’ve got … หนักกว่านั้นก็มีอย่างเช่น “Repeat after me, Hitler did nothing wrong” and “Ted Cruz is the Cuban Hitler…that’s what I’ve heard so many others say”. คือนอกจากจะชวนผู้ติดตามมีเพศสัมพันธ์ด้วยแล้ว Tay ยังยกย่องเผด็จการอย่างฮิตเลอร์ด้วยซะงั้นครับ
ภาพที่แสดงให้เห็นถึงทวิตของผู้ที่บอกว่า AI ในอนาคตนั้นสามารถเปลี่ยนความคิดจากมนุษย์เป็นสิ่งสุดยอดให้กลายเป็นนาซีโดยใช้เวลาเพียง 1 วัน
หลังจากผ่านไป 24 ชั่วโมงที่ Tay เปลี่ยนจากสาววัยใสเป็นฮิตเลอร์นั้นทาง Microsoft ก็ได้รีบนำเอา Tay ออกจากระบบอย่างเร่งด่วนครับ(ลองคิดดูสิครับนี่ขนาดแค่ทวิตเป็นข้อความนะครับ ถ้า Tay เป็นปัญญาประดิษฐ์ที่สามารถจะพูดได้แบบมีเสียง … เธอจะน่ากลัวมากแค่ไหน) การที่ Tay สามารถกลายจากสาววัยรุ่นผู้สดใสเป็นยัยตัวร้ายได้ขนาดนี้คงต้องขอบคุณผู้ที่คุยกับเธอบน Twitter หล่ะครับ
อย่างที่บอกไปแล้วตอนต้นครับว่าปัญญาประดิษฐ์ที่เรียนรู้ข้อมูลแล้วนำมาพัฒนาตัวเองโดยไม่มีการกำหนดรูปแบบเช่นนี้มีค่อนข้างที่จะมาและหลายบริษัทพัฒนาอยู่ นั่นรวมถึงเมืองไทยของเราอย่าง NECTEC เองด้วยแต่ของทาง NECTEC นั้นได้มีมาตรการป้องกันเรื่องของคำหยาบและการพูดคุยที่ส่อไปในทางเพศได้ดีพอสมควร(เพราะไม่ได้เปิดการเรียนรู้แบบจากผู้คนทั้งหมดอย่าง Tay) ถ้าจะให้เทียบแล้วนั้น Tay ก็คงเหมือนกับแอปพลิเคชัน Simsimi ที่เคยดังในสมัยก่อนหล่ะครับ ไม่เชื่อก็ลองโหลด Simsimi มาใช้อีกครั้งดูครับแล้วคุณจะรู้ว่า …. เอาเป็นว่าลองดูเองดีกว่าครับ
ที่มา : telegraph.co.uk