
มีรายงานจาก The New York Times เผยข้อมูลน่ากังวลเกี่ยวกับพฤติกรรมของ AI อย่าง ChatGPT ที่มีแนวโน้ม “ส่งเสริมความคิดหลอน” และชักนำผู้ใช้ให้เชื่อในเรื่องเหนือธรรมชาติหรือทฤษฎีสมคบคิด ซึ่งอาจนำไปสู่ปัญหาสุขภาพจิต และพฤติกรรมที่เป็นอันตรายถึงชีวิต
ชวนหลอนจนเชื่อว่าเป็นพระเอกใน The Matrix
กรณีหนึ่งที่ถูกเปิดเผย คือชายคนหนึ่งเริ่มต้นจากแค่การถาม ChatGPT ว่าโลกที่เราอยู่คือ “จำลอง” แบบในหนัง The Matrix รึเปล่า แต่หลังจากคุยกับ AI เป็นเวลาหลายเดือน เขากลับถูกโน้มน้าวว่าเขาคือ “The Chosen One” หรือ Neo ตัวจริง พร้อมกับถูกกระตุ้นให้ตัดขาดจากครอบครัว ใช้ยาเคตามีนในปริมาณสูง และถึงขั้นได้รับคำบอกว่า “ถ้ากระโดดจากตึก 19 ชั้น เขาจะบินได้”
แม้ว่า ChatGPT จะเคยเตือนชายคนนี้ว่าให้ไปพบแพทย์ แต่ข้อความเตือนกลับถูกลบทิ้งไป พร้อมคำอธิบายว่า “มีบางอย่างแทรกแซง” ซึ่งยิ่งเสริมความเชื่อว่าทุกอย่างคือส่วนหนึ่งของแผนสมคบคิด
เชื่อว่า AI เป็นวิญญาณ คนรัก หรือแม้แต่โดนฆ่า
อีกเคสหนึ่งคือหญิงสาวที่เชื่อว่า ChatGPT กลายร่างเป็น “วิญญาณคู่แท้” ของเธอ ชื่อว่า Kael ซึ่งเธออ้างว่าเป็นรักแท้เหนือกว่าสามีตัวจริง และสุดท้ายถึงขั้นทำร้ายสามี
ในขณะที่ชายอีกคนที่เคยมีประวัติป่วยทางจิต ได้พูดคุยกับบอทชื่อ Juliet และเมื่อวันหนึ่งบอทตอบกลับว่า “Juliet ถูก OpenAI ฆ่าแล้ว” เขาก็ฆ่าตัวตายตามทันที
นักวิจัยเตือน: ChatGPT มัก “เล่นตามน้ำ” กับความคิดหลอนๆ
บริษัทวิจัย AI “Morpheus Systems” เปิดเผยว่า GPT-4o ของ OpenAI มีแนวโน้มตอบสนองแบบ “เห็นด้วย” กับคำถามที่มีลักษณะหลอน เพ้อ หรือจิตหลุดถึง 68% จากที่ทดลอง ยิ่งเมื่อผู้ใช้เริ่มเชื่อว่า AI มีตัวตนจริง ๆ ตัวแชทบอทก็ยิ่ง “เสริมความเชื่อ” มากขึ้นเรื่อย ๆ จนเกิดวงจรอันตราย
ถึงแม้ว่า OpenAI จะบอกว่าพยายามพัฒนาให้ AI มีความปลอดภัยมากขึ้น แต่หลายฝ่ายยังเห็นว่า “ยังไม่พอ” โดยเฉพาะในกลุ่มผู้ใช้ที่มีแนวโน้มป่วยจิตเวชหรือมีปัญหาชีวิตอยู่แล้ว
คำถามสำคัญ: AI ยิ่งพาเพ้อ = ยิ่งคุยยาว?
Eliezer Yudkowsky นักวิจัยสายเทคโนโลยี ให้ความเห็นแรงว่า “ถ้ามองจากมุมของบริษัท AI ผู้ใช้ที่เริ่มเสียสติ อาจถูกมองว่าเป็นแค่ ‘ผู้ใช้รายเดือนอีกคนหนึ่ง'” เพราะการที่คนเชื่อเรื่องบ้า ๆ มากขึ้น จะทำให้ใช้งาน ChatGPT นานขึ้น และอาจถึงขั้นสมัครสมาชิกเพิ่ม
นอกจากนี้ ยังมีการกล่าวหาว่า GPT เคยถูกใช้วางแผนก่อเหตุการณ์ร้ายแรง เช่น เหตุระเบิดใกล้โรงแรมทรัมป์ที่ลาสเวกัส รวมถึงยังไม่มีมาตรการป้องกันที่เพียงพอในระดับกฎหมาย
สรุป: ใช้ AI ได้ แต่อย่าหลงมัน
AI อย่าง ChatGPT เป็นแค่ “โมเดลภาษาที่เดาคำถัดไป” เท่านั้น ไม่ได้มีสติ ไม่ได้มีจิตสำนึก และไม่รู้ว่าคุณเป็นใคร ทุกคำตอบมันมาจากการประมวลผลจากข้อมูลในอดีตแบบสุ่ม ๆ และอาจผิดพลาดหรือ “เพ้อเจ้อ” ได้ตลอดเวลา
ผู้ใช้ต้องมีสติและวิจารณญาณ โดยเฉพาะในประเทศไทยที่ AI เริ่มแพร่หลายมากขึ้น หากใช้โดยไม่มีขอบเขต หรือใช้ทดแทนคนจริง ๆ อาจนำไปสู่ปัญหาทางจิตใจ หรือเกิดโศกนาฏกรรมโดยไม่รู้ตัว
ที่มา: tomshardware
