Skip to main content
sharethis

ในยุคปัจจุบันมีโปรแกรมปัญญาประดิษฐ์ (AI) ที่สามารถสร้างรูปภาพได้โดยอัตโนมัติหลายโปรแกรมแพร่กระจายไปทั่วโซเชียลมีเดีย ไม่ว่าจะเป็น Midjourney, DALL-E, DeepAI มีบางกรณีที่สร้างความเสี่ยงต่อการแพร่กระจายข้อมูลที่ไม่จริง สื่อ DW นำเสนอเคล็ดลับว่าเราจะแยกแยะออกได้อย่างไรระหว่างรูปภาพจริงกับรูปภาพที่ถูกสร้างโดย AI


ที่มาภาพ: BiblePics (CC BY-NC 4.0)

15 เม.ย. 2566 ในยุคสมัยปัจจุบันกลายเป็นเรื่องง่ายที่คนจะสร้างรูปที่ดูแล้วเหมือนรูปถ่ายสมจริงแต่จริงๆ แล้วเป็นรูปปลอมที่ไม่ได้ถ่ายเอง แต่ใช้โปรแกรมสร้างขึ้น ใครก็ตามที่สามารถเชื่อมต่ออินเทอร์เน็ตได้ก็จะสามารถใช้เครื่องมือปัญญาประดิษฐ์ (AI) ในการสร้างรูปภาพที่คล้ายรูปถ่ายเสมือนจริงได้ภายในเวลาไม่กี่วินาที แล้วรูปพวกนี้ก็แพร่กระจายไปตามโซเชียลได้อย่างรวดเร็วในระดับที่อันตราย

ในช่วงไม่นานมานี้ มีรูปภาพปลอมที่มาจากโปรแกรม AI แพร่หลายไปทั่ว ไม่ว่าจะเป็นรูปของประธานาธิบดี วลาดิเมียร์ ปูติน อยู่ในสภาพราวกับกำลังถูกจับกุม หรือ ซีอีโอของบริษัทเทสลา อีลอน มัสก์ จับมือกับซีอีโอของเจอเนอรัลมอเตอร์ แมรี บาร์รา นี่เป็นเพียงแค่สองตัวอย่างของรูปภาพปลอมจำพวกนี้เท่านั้น

ปัญหาก็คือภาพจาก AI ทั้งสองภาพนี้แสดงให้เห็นถึงเหตุการณ์ที่ไม่เคยเกิดขึ้นจริง มีแม้กระทั่งกรณีที่ช่างภาพเผยแพร่รูปภาพตัวบุคคลของตัวเอง ซึ่งพอมารู้ความจริงแล้วมันเป็นรูปภาพที่สร้างขึ้นจาก AI

ผู้เชี่ยวชาญบอกว่า ถึงแม้ว่ารูปพวกนี้บางรูปอาจจะตลกขบขัน แต่มันก็กลายเป็นภัยอย่างแท้จริงได้ ในการที่มันจะถูกใช้เป็นเครื่องมือใส่ร้ายป้ายสีและโฆษณาชวนเชื่อ

รูปจาก AI ที่เสนอภาพเหตุการณ์ที่ไม่เคยเกิดขึ้นจริง

รูปภาพเกี่ยวกับการจับกุมนักการเมืองอย่างปูติน หรืออดีตประธานาธิบดี โดนัลด์ ทรัมป์ นั้นอาจจะสามารถตรวจสอบได้อย่างรวดเร็ว ถ้าหากมีการเช็คกับสื่อที่เชื่อถือได้

แต่ เฮนรี แอดเจอร์ ผู้เชี่ยวชาญเรื่อง AI ก็บอกว่า รูปภาพแบบอื่นๆ อาจจะตรวจเช็คได้ยากกว่า เช่น รูปภาพที่มีคนในรูปไม่เป็นที่รู้จัก ยกตัวอย่างเช่น มี ส.ส. รายหนึ่งจากพรรคขวาจัดของเยอรมนี AfD ได้เผยแพร่รูปภาพในอินสตาแกรม เป็นรูปภาพของชายที่ไม่เป็นที่รู้จักคนหนึ่งทำหน้าตาประหนึ่งกำลังแผดเสี่ยงร้องแสดงให้เห็นถึงการต่อต้านการเข้ามาในประเทศของผู้ลี้ภัย ซึ่งเป็นรูปที่ไม่ใช่เหตุการณ์ที่เกิดขึ้นจริงแต่อย่างใด

แอดเจอร์ บอกว่าไม่เพียงแค่รูปภาพของบุคคลเท่านั้นที่จะสามารถใช้แพร่กระจายข้อมูลที่ผิดได้ มีตัวอย่างของผู้ใช้งาน AI ที่สร้างรูปภาพเหตุการณ์ที่ไม่เคยเกิดขึ้นจริงขึ้นมาด้วย

มีกรณีแผ่นดินไหวร้ายแรงที่มีผู้อ้างว่าเกิดขึ้นในแถบมหาสมุทรแปซิฟิกทางตะวันตกเฉียงเหนือของสหรัฐฯ และแคนาดาในปี 2544 แต่ปัญหาก็คือแผ่นดินไหวที่ว่านี้ไม่ได้เกิดขึ้นจริง แต่มันเป็นภาพที่ AI สร้างขึ้นมาเองแล้วมีการเผยแพร่ต่อในเว็บบอร์ด Reddit

เรื่องนี้จะกลายเป็นปัญหาได้ แอดเจอร์บอกว่า ถ้าหากปัญญาประดิษฐ์สร้างรูปภาพของภูมิทัศน์แทนที่จะเป็นรูปภาพของบุคคล มันก็อาจจะยากที่จะจับได้ว่าเป็นจริงหรือเท็จ

อย่างไรก็ตาม ระบบปัญญาประดิษฐ์ก็ยังคงทำอะไรผิดพลาดอยู่ ถึงแม้ว่ามันจะพัฒนาเร็วมากก็ตาม จนถึงเดือน เม.ย. 2566 โปรแกรมปัญญาประดิษฐ์อย่าง Midjourney, DALL-E และ DeepAI ต่างก็มีข้อบกพร่อง โดยเฉพาะกับรูปภาพบุคคล

ทีมพิสูจน์ข้อเท็จจริงของ DW ได้รวบรวมเคล็ดลับบางส่วนที่จะช่วยให้ผู้อ่านสามารถแยกแยะได้ว่า รูปภาพไหนที่มาจาก AI รูปภาพไหนที่เป็นของจริง อย่างไรก็ตามเครื่องมือ AI เป็นสิ่งที่พัฒนาได้เร็วมากดังนั้นแล้วเคล็ดลับเหล่านี้อาจจะสะท้อนสภาพในช่วงปัจจุบันเท่านั้น

1.) ซูมเข้าไปดูแล้วมองให้ละเอียด

มีรูปภาพจาก AI จำนวนมากที่ดูเหมือนรูปจริงเมื่อมองผ่านๆ นั่นเป็นเหตุผลว่าทำไมจึงควรมีการมองรูปเหล่านั้นให้ละเอียด โดยใช้วิธีการค้นหารูปเดียวกันนี้ในแบบที่มีค่าความละเอียดสูงที่สุดเท่าที่จะเป็นไปได้ จากนั้นก็ซูมเข้าไปดูที่รายละเอียดของมัน การขยายรูปให้ใหญ่ขึ้นจะทำให้เห็นความไม่คงเส้นคงวาและความผิดเพี้ยนของมันได้ แบบที่มองทีแรกจะยังไม่เห็น

2.) ค้นหาแหล่งที่มาของรูปภาพ

ถ้าคุณไม่แน่ใจว่ารูปภาพนี้เป็นภาพจริงหรือสร้างขึ้นโดย AI ก็ขอให้คุณลองค้นหาแหล่งที่มาของรูปภาพดู คุณอาจจะสามารถมองเห็นข้อมูลบางส่วนว่ารูปภาพนี้มีที่มาจากการโพสต์ครั้งแรกที่ไหนได้โดยการอ่านความคิดเห็นใต้ภาพจากผู้ใช้รายอื่นๆ

หรืออีกวิธีการหนึ่งคือการลองใช้วิธีค้นหารูปภาพแบบย้อนไปหาแหล่งที่มา เช่น การคลิกรูปแล้วคลิกที่รายการ "ค้นหารูปภาพด้วยกูเกิล" อัพโหลดรูปขึ้นกูเกิลเพื่อค้นหา หรือโปรแกรมค้นหาอื่นๆ อย่าง Reverse Search, TinEye, Yandex ซึ่งอาจจะทำให้คุณค้นพบแหล่งต้นตอของรูปภาพนั้นได้

การค้นหาต้นตอรูปภาพเช่นนี้อาจจะนำไปสู่การตรวจสอบข้อเท็จจริงจากสื่อที่น่าเชื่อถือที่ให้บริบทเพิ่มเติมเกี่ยวกับรูปภาพเหล่านั้นได้ด้วย

3.) ลองสังเกตดูสัดส่วนของร่างกายว่าบิดเบี้ยวหรือผิดไปจากความจริงหรือไม่

มันเป็นเรื่องที่เกิดขึ้นบ่อยมากสำหรับรูปที่สร้างโดย AI จะแสดงให้เห็นถึงความเหลื่อมกันของสัดส่วน เช่น มือเล็กเกินไปหรือนิ้วยาวเกินไป หรือมีหัวกับเท้าที่ไม่เข้ากับส่วนอื่นๆ ของร่างกาย

มีกรณีหนึ่งที่เป็นรูป "ปูติน" คุกเข่าลงตรงหน้า "ประธานาธิบดีจีน สีจิ้นผิง" มีส่วนที่น่าสังเกตคือรองเท้าของบุคคลในรูปนี้ใหญ่และกว้างในแบบที่ผิดสัดส่วน ส่วนน่องก็ดูจะถูกยืดให้ยาว ใบหน้าที่ถูกปิดไว้ครึ่งหนึ่งดูใหญ่มากและมีสัดส่วนไม่เข้ากันเมื่อเทียบกับทั้งตัว

4.) คอยดูส่วนที่ AI มักจะทำผิด

มีข้อสังเกตว่า มือมักจะเป็นส่วนที่ AI ที่ชื่อ Midjourney หรือ DALL-E มักจะผิดพลาดเสมอ ผู้คนในรูปของ AI มักจะมี 6 นิ้ว เช่น ตำรวจที่อยู่ข้างขวาของ "ปูติน" หรืออีกตัวอย่างหนึ่งคือกรณีรูปของพระสันตะปาปาฟรานซิสในแฟชั่นสไตล์บาเลนเซียกา

อีกเรื่องหนึ่งที่ AI มักจะผิดเป็นประจำคือการสร้างรูปคนที่มีฟันมากเกินไป มีกรอบแว่นตาที่ดูผิดรูปอย่างประหลาด หรือมีหูที่เป็นรูปทรงไม่สมจริง

มีโปรแกรมปัญญาประดิษฐ์ที่สร้างในหน้าคนขึ้นมาแบบสุ่มเช่น Random Face Generator ที่สร้างรูปภาพของคนที่ไม่มีอยู่จริง ถึงแม้ว่ารูปภาพเหล่านี้จะดูเหมือนกับเป็นรูปแท้ๆ แต่ก็น่าสังเกตเกี่ยวกับรูปร่างของหู, ตา, ผม, แว่นตา หรือต่างหู ซึ่งตัวโปรแกรมนี้มักจะทำผิดพลาด นอกจากนี้พื้นผิวที่สะท้อนแสงเช่นกระบังหน้าหมวกกันน็อคก็สร้างปัญหาให้กับ AI ได้ จากการที่บางครั้งมันก็สะท้อนอะไรกระจัดกระจายไปคนละทิศละทาง เช่นหมวกกันน็อคในรูปที่ "ปูติน" ถูกจับกุม

5.) รูปมักจะดูปลอมและแสงดูสมบูรณ์แบบเกินจริง

แอพอย่าง Midjourney มักจะสร้างภาพจำนวนมากที่ดูดีเกินจริง จนทำให้ราต้องอาจจะลองเชื่อความรู้สึกตัวเองดูก็ได้ว่า รูปภาพที่สมบูรณ์แบบของผู้คนไร้ที่ติเช่นนี้มันจะเป็นจริงได้ด้วยหรือ?

แอนเดรียส์ เดนเกล จากศูนย์วิจัยเยอรมนีเพื่อปัญญาประดิษฐ์ กล่าวถึงจุดสังเกตว่า "ใบหน้าที่ดูเกลี้ยงเกลาเกินไป เสื้อผ้าที่แสดงอยู่ในรูปก็ดูกลมกลืนไปกับรูปมากเกินไป" อาจจะเป็นรูปจาก AI ก็ได้ รูปคนของ AI นั้นมักจะมีผิวเกลี้ยงและไม่มีจุดตำหนิใดๆ เลย  แม้แต่ผมและฟันก็ดูไร้ที่ติ ซึ่งในชีวิตจริงแล้วไม่ได้เป็นแบบนั้น

มีรูปภาพของ AI จำนวนมากที่มีองค์ประกอบแสงที่ดูวิจิตร, เปล่งประกาย, ระยิบระยับ ในแบบที่แม้แต่กับช่างภาพมืออาชีพยังยากที่จะทำแบบนี้ได้ ส่วนโปรแกรม AI นั้นมักจะออกแบบรูปภาพในอุดมคติ ดูสมบูรณ์แบบ พยายามเอาใจทุกคนให้มากที่สุดเท่าที่จะเป็นไปได้

6.) ลองตรวจดูที่ฉากหลัง

ฉากหลังของรูปภาพมักจะแสดงให้เห็นว่ามันเป็นรูปที่ดัดแปลงมาหรือไม่ ในรูปเหล่านี้สิ่งของมักจะดูผิดรูป เช่น ไฟถนน เป็นต้น มีอยู่บางกรณีที่โปรแกรม AI ทำการก็อปสิ่งของ แล้วแปะมันลงไปในรูป 2 ครั้ง นอกจากนี้รูปที่ AI สร้างขึ้นก็มักจะมีพื้นหลังที่เบลอ และแม้กระทั่งพื้นหลังที่เบลอเหล่านี้ก็มีข้อผิดพลาดอยู่ด้วย เช่น กรณีของรูป AI ที่ต้องการแสดงภาพของ "วิล สมิทธ์" ที่แสดงความไม่พอใจในงานออสการ์ พื้นหลังมันไม่เพียงหลุดโฟกัสเท่านั้นแต่ยังเบลอในระดับที่ดูเป็นของปลอมด้วย

สรุป

ถึงแม้ว่ารูปภาพ AI จำนวนมากจะสามารถถูกพิสูจน์ได้ว่าเป็นรูปของปลอมเพียงแต่ทำการค้นคว้าสักหน่อย แต่เทคโนโลยีก็มีการพัฒนามากขึ้นจนความผิดพลาดของ AI อาจจะน้อยลงในอนาคต

ตัวตรวจจับ AI อย่าง Hugging Face จะสามารถช่วยพวกเราตรวจจับการดัดแปลงของ AI ได้หรือไม่นั้น จากการตรวจสอบของ DW แล้วพบว่าตัวตรวจจับนี้จะสามารถให้เงื่อนงำเราได้เท่านั้นแต่ไม่ได้มีอะไรมากกว่านั้น และผู้เชี่ยวชาญก็มักจะไม่แนะนำให้ใช้เพราะเครื่องมือยังพัฒนาได้ไม่ดีพอ จนมีการตรวจสอบพลาดแปะป้ายว่ารูปถ่ายของจริงเป็นรูปของปลอมก็มี

ดังนั้นแล้ว ถ้าหากเกิดสงสัยว่ารูปไหนรูปจริงหรือรูป AI สิ่งที่ดีที่สุดที่ผู้ใช้งานจะทำได้คือการแยกแยะเหตุการณ์จริงกับเหตุการณ์ปลอมโดยอาศัยสามัญสำนึก อ้างอิงสื่อที่เชื่อถือได้ และหลีกเลี่ยงการส่งต่อรูปภาพที่น่าสงสัยเหล่านี้


เรียบเรียงจาก
Fact check: How can I spot AI-generated images?, DW, 09-04-2023

ร่วมบริจาคเงิน สนับสนุน ประชาไท โอนเงิน กรุงไทย 091-0-10432-8 "มูลนิธิสื่อเพื่อการศึกษาของชุมชน FCEM" หรือ โอนผ่าน PayPal / บัตรเครดิต (รายงานยอดบริจาคสนับสนุน)

ติดตามประชาไท ได้ทุกช่องทาง Facebook, X/Twitter, Instagram, YouTube, TikTok หรือสั่งซื้อสินค้าประชาไท ได้ที่ https://shop.prachataistore.net