
YouTube กำลังเดินเกมสองด้านที่ดูเหมือนขัดกันในสายตาคนดูจำนวนไม่น้อย ด้านหนึ่งบริษัทประกาศชัดว่าจะจริงจังกับการลดคอนเทนต์คุณภาพต่ำที่ถูกเรียกรวม ๆ ว่า “AI slop” แต่อีกด้านกลับประกาศขยายเครื่องมือ AI สำหรับครีเอเตอร์ โดยหนึ่งในไฮไลต์คือฟีเจอร์ที่อนุญาตให้ครีเอเตอร์สร้าง YouTube Shorts ด้วย “likeness” หรือรูปลักษณ์ของตัวเองที่ถูกสร้างขึ้นด้วย AI ได้
ประเด็นนี้ถูกย้ำในจดหมายประจำปีของ Neal Mohan ซีอีโอ YouTube ซึ่งเผยแพร่ในเดือนมกราคม 2026 โดยนอกจากพูดถึงแผนรับมือสแปมและคอนเทนต์ซ้ำ ๆ แล้ว ยังพูดถึงตัวเลขการใช้งานเครื่องมือ AI ของแพลตฟอร์ม และโรดแมปเครื่องมือสร้างสรรค์ใหม่ ๆ ที่จะตามมาในปี 2026 ด้วย
YouTube หมายถึงอะไรเมื่อพูดคำว่า “AI slop”
ในจดหมายประจำปี YouTube ใช้คำว่า “AI slop” เพื่อพูดถึงความกังวลเรื่องคอนเทนต์ AI คุณภาพต่ำที่มักผลิตซ้ำได้จำนวนมาก ตั้งใจทำให้ “คลิกได้” มากกว่าสร้างคุณค่า และมักมาในรูปแบบคอนเทนต์ซ้ำ ๆ clickbait หรือสแปม โดย Neal Mohan ระบุว่า YouTube จะเดินหน้าพัฒนาระบบที่ใช้ตรวจจับคอนเทนต์ไม่พึงประสงค์เหล่านี้ต่อไปในปี 2026
อย่างไรก็ตาม “AI slop” ยังไม่ใช่คำจำกัดความที่มีเกณฑ์ชัดเจนแบบเดียวทั่วโลก ในทางปฏิบัติคำว่า “คุณภาพต่ำ” อาจครอบคลุมตั้งแต่คอนเทนต์ซ้ำสูตรสำเร็จ ไปจนถึงคลิปที่ใช้ AI สร้างทั้งชิ้นโดยแทบไม่มีการกำกับหรือเพิ่มคุณค่าจากมนุษย์เลย
ทำไม YouTube ถึงยก ASMR และเกมเพลย์มาเป็นตัวอย่าง
Neal Mohan ยกตัวอย่างว่า ASMR และวิดีโอเกมเพลย์เคยเป็นคอนเทนต์ที่ “แปลกใหม่” ในอดีต แต่ต่อมากลายเป็นคอนเทนต์กระแสหลักของแพลตฟอร์ม นัยสำคัญของการยกตัวอย่างนี้คือ YouTube ไม่ได้อยาก “ปิดกั้นรูปแบบคอนเทนต์” แบบเหมารวม แต่จะพยายามแยกแยะระหว่าง
- คอนเทนต์รูปแบบใหม่ที่ผู้ชมยอมรับ และสร้างคุณค่าได้จริง
กับ - คอนเทนต์ที่ตั้งใจปั่นยอด ซ้ำ ๆ คุณภาพต่ำ หรือหลอกล่อให้คลิก
เมื่อเอามาเทียบกับคอนเทนต์ AI เส้นแบ่งจะยิ่งบางลง เพราะ AI สามารถช่วยทำงานเชิงโปรดักชันได้จริง (เช่น ตัดต่อ ทำเสียงพากย์ หรือช่วยทำภาพประกอบ) แต่ก็ถูกใช้เพื่อ “ผลิตปริมาณ” แบบไร้คุณภาพได้เช่นกัน
ฟีเจอร์ “AI likeness” สำหรับ Shorts คืออะไร
YouTube ระบุว่าปี 2026 จะขยายเครื่องมือ AI สำหรับครีเอเตอร์ หนึ่งในนั้นคือฟีเจอร์ที่ให้ครีเอเตอร์สร้าง Shorts ด้วย “likeness” ของตัวเองแบบ AI-generated ได้
ถ้ามองในเชิงการทำงาน ฟีเจอร์ลักษณะนี้อาจถูกใช้เพื่อเพิ่มความเร็วในการทำคอนเทนต์ เช่น
- ทำ Shorts ได้ถี่ขึ้น แม้เจ้าของช่องไม่สะดวกถ่ายทำ
- ทำคอนเทนต์อธิบาย/เล่าเรื่องด้วย “ตัวตนดิจิทัล” ของตัวเอง
- ทำคอนเทนต์หลายสคริปต์ได้ไวขึ้น (ขึ้นอยู่กับความสามารถของเครื่องมือจริง)
แต่ในเชิงนโยบาย ฟีเจอร์นี้ไปแตะเรื่องตัวตนและความน่าเชื่อถือของบุคคลโดยตรง จึงเป็นเหตุผลว่าทำไมคนจำนวนมากถึงจับตาว่า YouTube จะกำกับและป้องกันการนำไปใช้ผิดวัตถุประสงค์อย่างไร
แล้วระบบตรวจจับ Deepfake ที่มีอยู่ก่อนจะไม่ชนกันเองหรือ
ก่อนหน้านี้ YouTube เคยประกาศเครื่องมือที่เกี่ยวข้องกับการตรวจจับ “รูปลักษณ์” เพื่อช่วยครีเอเตอร์รับมือกรณีมีคนนำใบหน้าหรือเสียงไปสร้างเป็น deepfake โดยไม่ได้รับอนุญาต
เมื่อแพลตฟอร์มเตรียมเปิดเครื่องมือที่อนุญาตให้ “เจ้าของตัวตน” สร้าง รูปลักษณ์ด้วย AI ของตัวเองได้ ระบบหลังบ้านจึงต้องแยกให้ออกอย่างชัดเจนระหว่าง
- คอนเทนต์ที่ครีเอเตอร์สร้างเองอย่างถูกสิทธิ์
กับ - คอนเทนต์ที่มีคนอื่นขโมยตัวตนไปใช้
ถ้าระบบไม่เข้าล็อกกันจริง ผลกระทบจะตกกับครีเอเตอร์ทันที เช่น โดน flag ผิดพลาด, โดนจำกัดการเข้าถึง, หรือเกิดความสับสนเรื่องสิทธิในการใช้ตัวตนของตนเอง
ตัวเลขการใช้งานเครื่องมือ AI และแรงผลักของ Shorts
YouTube ระบุว่ามี “มากกว่า 1 ล้านช่อง” ใช้เครื่องมือ AI ของ YouTube “ทุกวัน” ในเดือนธันวาคม 2025 นี่เป็นสัญญาณชัดว่า AI ถูกใช้จริงในระดับแพลตฟอร์ม ไม่ใช่ฟีเจอร์ทดลองของคนส่วนน้อย
ขณะเดียวกัน Shorts เป็นพื้นที่ที่เติบโตและมีสเกลใหญ่มาก และเป็นสนามที่เหมาะกับ “คอนเทนต์จำนวนมาก” ทั้งในด้านสร้างสรรค์และด้านคอนเทนต์คุณภาพต่ำ เพราะรูปแบบวิดีโอสั้นกินด้วยความเร็ว และอัลกอริทึมมีบทบาทสูงในการกระจายคอนเทนต์
จึงไม่น่าแปลกที่ YouTube ต้องประกาศ “คุมคุณภาพ” ควบคู่กับ “ขยายเครื่องมือ AI” เพราะถ้าระบบแนะนำเต็มไปด้วยคอนเทนต์ซ้ำ ๆ คุณภาพต่ำ ประสบการณ์ผู้ชมและความเชื่อมั่นของแบรนด์โฆษณาจะเสียหาย ซึ่งสุดท้ายกระทบรายได้ทั้งระบบ
ปี 2026 ยังมี “text-to-game” และเครื่องมือเพลงด้วย
ในโรดแมปปี 2026 YouTube ยังพูดถึงแนวคิดเครื่องมือที่ให้ครีเอเตอร์ “สร้างเกมด้วยคำสั่งข้อความ” และ “ทดลองกับเพลง” ในปีเดียวกัน ซึ่งสะท้อนความพยายามขยาย YouTube ให้เป็นมากกว่าแพลตฟอร์มโฮสต์วิดีโอ แต่เป็นพื้นที่สร้างสรรค์ที่มีเครื่องมือครบขึ้นเรื่อย ๆ
อย่างไรก็ตาม ยิ่งทำให้การผลิตคอนเทนต์ง่ายขึ้นเท่าไร ความเสี่ยงเรื่องคอนเทนต์ล้นระบบ และคุณภาพเฉลี่ยลดลงก็จะยิ่งสูงขึ้นเท่านั้น นี่จึงเป็นความท้าทายใหญ่ของ YouTube ในปี 2026
ผลกระทบต่อครีเอเตอร์ ผู้ชม และแบรนด์โฆษณา
1) ครีเอเตอร์ได้เครื่องมือเพิ่ม แต่ต้องรับภาระ “ความโปร่งใส”
AI จะช่วยให้ทำงานไวขึ้น แต่สิ่งที่ตามมาคือความคาดหวังเรื่องการเปิดเผยว่าคอนเทนต์ส่วนไหนใช้ AI และต้องป้องกันไม่ให้ผู้ชมรู้สึกว่าถูกหลอก โดยเฉพาะเมื่อคอนเทนต์เกี่ยวข้องกับใบหน้า/เสียงที่สร้างขึ้น
2) ผู้ชมต้องเจอคอนเทนต์มากขึ้น และเส้นแบ่งของจริง/ปลอมบางลง
เมื่อคอนเทนต์ผลิตได้ง่ายขึ้น ผู้ชมอาจเห็นคอนเทนต์คล้ายกันเต็มฟีดมากขึ้น และยิ่งถ้า deepfake เข้าถึงง่ายขึ้น คนดูจะยิ่งตั้งคำถามเรื่อง “ความน่าเชื่อถือ” มากกว่าเดิม
3) แบรนด์โฆษณาจะดู “คุณภาพสภาพแวดล้อม” เข้มขึ้น
ถ้าแพลตฟอร์มถูกมองว่าเต็มไปด้วยสแปมและคอนเทนต์คุณภาพต่ำ แบรนด์จะกังวลเรื่อง brand safety ทันที ซึ่งเป็นแรงกดดันสำคัญให้ YouTube ต้องคุมคุณภาพให้ได้จริง
จุดที่ยังต้องจับตาในปี 2026
- รายละเอียดเชิงเทคนิคของเครื่องมือสร้างรูปลักษณ์ด้วย AI ว่ามีขั้นตอนยืนยันตัวตนและการควบคุมสิทธิอย่างไร
- การทำงานร่วมกันของระบบ “สร้าง” กับ “ตรวจจับ” ว่าจะลด false positive ได้แค่ไหน
- เกณฑ์ “AI slop” จะชัดขึ้นหรือยัง เพราะถ้านิยามกว้างเกินไป อาจกระทบครีเอเตอร์ที่ทำงานจริงจัง
- ผลกระทบต่อ Shorts โดยตรง เพราะนี่คือพื้นที่ที่สเกลใหญ่มาก และเป็นจุดที่ YouTube ใส่เครื่องมือ AI เพิ่มอย่างต่อเนื่อง
สรุป
จากจดหมายของซีอีโอ YouTube ในเดือนมกราคม 2026 ภาพที่ชัดคือบริษัทพยายามรักษาสมดุลระหว่าง “คุณภาพของประสบการณ์ผู้ชม” กับ “การเร่งเครื่องมือ AI ให้ครีเอเตอร์” ซึ่งเป็นโจทย์ยาก เพราะเครื่องมือที่ทำให้สร้างคอนเทนต์ง่ายขึ้น ย่อมเปิดทางให้คอนเทนต์คุณภาพต่ำไหลเข้าระบบได้ง่ายขึ้นเช่นกัน
ปี 2026 จึงน่าจะเป็นปีที่ YouTube ต้องพิสูจน์ให้เห็นว่า แพลตฟอร์มสามารถให้เครื่องมือ AI ที่ทรงพลังกับครีเอเตอร์ได้ โดยไม่ทำให้ระบบแนะนำและคุณภาพคอนเทนต์โดยรวม “พังลง” จากสิ่งที่ผู้ชมเรียกว่า “AI slop”
ที่มา: Neowin





