
Wikimedia Foundation ต้องพักแผนทดสอบระบบ AI summaries บน Wikipedia หลังถูกคัดค้านอย่างหนักจากอาสาสมัครผู้ดูแลบทความ โดยหลายคนกังวลว่าฟีเจอร์นี้อาจทำลายความน่าเชื่อถือของเว็บไซต์ และกระทบต่อหลักการทำงานแบบเปิดที่เป็นเอกลักษณ์ของชุมชน
แผนทดลอง Wikipedia AI summaries เจอแรงต้าน
Wikimedia Foundation เตรียมทดสอบระบบสรุปบทความอัตโนมัติที่ใช้โมเดล AI แบบเปิดชื่อว่า Aya ซึ่งพัฒนาโดย Cohere โดยจะเริ่มทดลองเฉพาะบน Wikipedia เวอร์ชันมือถือ และให้ผู้ใช้เลือกเปิดใช้งานเอง (opt-in) ในช่วงสองสัปดาห์
เป้าหมายของฟีเจอร์นี้คือช่วยให้ผู้อ่านเข้าถึงสาระสำคัญของบทความได้เร็วขึ้น แต่ทันทีที่แผนนี้ถูกเผยแพร่ ก็เจอกระแสต่อต้านจากอาสาสมัครทั่วโลกที่ดูแลและเขียนเนื้อหาให้ Wikipedia มาอย่างยาวนาน
คอมเมนต์ในหน้าพูดคุยของโครงการเต็มไปด้วยข้อความที่ปฏิเสธอย่างชัดเจน เช่น “Yuck”, “Absolutely not” และ “strongest possible oppose” สะท้อนถึงความไม่พอใจในวงกว้าง
ผู้ดูแล Wikipedia กังวลผลกระทบต่อความน่าเชื่อถือ
หนึ่งในผู้ดูแลแสดงความเห็นว่า AI summaries อาจสร้าง “ความเสียหายแบบถาวร” ต่อภาพลักษณ์ของ Wikipedia ที่ผู้ใช้ทั่วโลกให้ความไว้วางใจว่าเป็นแหล่งข้อมูลที่อ้างอิงได้จริง พร้อมเตือนว่า การให้ AI เข้ามาทำหน้าที่สรุปบทความเท่ากับเปลี่ยนรูปแบบการทำงานของชุมชนจาก “การร่วมกันเขียน” ไปเป็น “การควบคุมเนื้อหาโดยโมเดลเดียว”
มีการตั้งข้อสังเกตว่าฟีเจอร์นี้อาจขัดแย้งกับหลักการสำคัญของ Wikipedia ที่ยึดมั่นในแนวทาง “เป็นกลาง” (Neutral Point of View) และ “ต้องมีแหล่งอ้างอิง” ในทุกข้อความ
ตัวอย่างความผิดพลาดของ AI จากแพลตฟอร์มอื่น
ความกังวลของอาสาสมัคร Wikipedia ไม่ได้เป็นเรื่องเกินจริง เพราะในช่วงที่ผ่านมา AI จากหลายบริษัทเทคโนโลยีชื่อดังเคยพลาดอย่างน่าอายมาแล้ว:
- Google AI เคยแนะนำให้ “ใส่กาวบนพิซซ่า”
- Apple เคยแสดงการแจ้งเตือนผิดพลาดว่า “ชายคนหนึ่งเสียชีวิตจากการฆ่าตัวตาย” ทั้งที่ยังมีชีวิตอยู่และถูกควบคุมตัว
เหตุการณ์เหล่านี้แสดงให้เห็นว่าแม้ AI จะฉลาดเพียงใด ก็ยังเสี่ยงต่อความผิดพลาดที่อาจส่งผลเสียร้ายแรงต่อชื่อเสียงของแพลตฟอร์ม
Wikimedia ยอมถอย พร้อมทบทวนแนวทาง
Marshall Miller ผู้บริหารระดับสูงของ Wikimedia Foundation ออกมาโพสต์อัปเดตในหน้าพูดคุยว่า “เราควรแนะนำไอเดียนี้ให้ดีกว่านี้” และประกาศชัดว่าการทดลองจะถูก หยุดทันที เพื่อทบทวนแนวทางให้เหมาะสม
เขายังย้ำว่า Wikimedia “ไม่มีแผนจะนำฟีเจอร์สรุปบทความมาใช้โดยไม่ผ่านความเห็นจากชุมชน” และระบุว่าเป้าหมายของการใช้ AI ยังอยู่ที่การเพิ่มการเข้าถึงข้อมูล โดยยังคงให้ “มนุษย์เป็นศูนย์กลาง” ในกระบวนการตรวจสอบ
บทเรียนสำคัญจากกรณี Wikipedia AI summaries
แม้การนำ AI มาใช้กับแพลตฟอร์มข้อมูลสาธารณะจะเป็นเรื่องที่หลายองค์กรเริ่มทดลอง แต่กรณีของ Wikipedia AI summaries ก็เป็นเครื่องเตือนใจว่า “ความน่าเชื่อถือ” และ “การมีส่วนร่วมของมนุษย์” ยังคงเป็นหัวใจสำคัญของเนื้อหาบนโลกออนไลน์
ในท้ายที่สุด ชุมชนของ Wikipedia ก็แสดงจุดยืนชัดเจนว่า เทคโนโลยีจะต้องทำงาน เคียงข้างมนุษย์ ไม่ใช่แทนที่พวกเขา
ที่มา: Neowin
