Skip to main content
sharethis

พบบริษัทขนาดใหญ่ในสหรัฐอเมริกากว่า 50% ใช้ "ปัญญาประดิษฐ์จับอารมณ์" (Emotion AI) เพื่อวิเคราะห์สภาพจิตใจของพนักงาน แต่มีการศึกษาชี้ว่าพนักงานกลัวถูกสังเกตการณ์และการถูกเข้าใจผิด ชี้เทคโนโลยีนี้น่าจะมีผลเสียมากกว่าผลดี


ภาพประกอบสร้างจากเทคโนโลยี AI ของ Image Creator from Microsoft Designer

ปัจจุบันมีการใช้ "ปัญญาประดิษฐ์จับอารมณ์" (Emotion AI) ซึ่งอาศัยสัญญาณชีวภาพต่าง ๆ เช่น น้ำเสียง สีหน้า ข้อมูลจากอุปกรณ์สวมใส่ที่ติดกับร่างกาย รวมถึงข้อความและการใช้งานคอมพิวเตอร์ เพื่อวิเคราะห์และคาดการณ์ความรู้สึกของบุคคล เทคโนโลยีนี้ถูกนำไปใช้ในหลากหลายบริบท ตั้งแต่เรื่องทั่วไปอย่างความบันเทิง ไปจนถึงเรื่องสำคัญอย่างการทำงาน การคัดเลือกพนักงาน และการดูแลสุขภาพ

หลายอุตสาหกรรมนำ Emotion AI มาใช้แล้ว เช่น ศูนย์บริการโทรศัพท์, การเงิน, ธนาคาร, งานพยาบาล และงานดูแลผู้สูงอายุ ในสหรัฐอเมริกา บริษัทขนาดใหญ่กว่า 50% ใช้ปัญญาประดิษฐ์จับอารมณ์เพื่อวิเคราะห์สภาพจิตใจของพนักงาน ซึ่งแนวทางนี้ได้รับความนิยมมากขึ้นในช่วงการแพร่ระบาดของโควิด-19 ตัวอย่างเช่น ศูนย์บริการโทรศัพท์ใช้ติดตามคำพูดและน้ำเสียงของพนักงาน เป็นต้น

แต่นักวิชาการตั้งข้อกังวลเกี่ยวกับความน่าเชื่อถือทางวิทยาศาสตร์ของเทคโนโลยี Emotion AI นี้และการอ้างอิงทฤษฎีเกี่ยวกับความรู้สึกก็ยังเป็นที่ถกเถียงกันอยู่

นอกจากนี้ ยังมีการชี้ประเด็นเกี่ยวกับศักยภาพของ Emotion AI ในการละเมิดความเป็นส่วนตัว และความเสี่ยงที่จะเกิดอคติทางเชื้อชาติ เพศ และความพิการ

นายจ้างบางส่วนใช้งานเทคโนโลยีนี้ราวกับว่ามันไร้ที่ติ ขณะที่นักวิชาการบางกลุ่มพยายามลดอคติและพัฒนาความน่าเชื่อถือ  บางกลุ่มเสนอให้ยกเลิกการใช้ Emotion AI โดยสิ้นเชิง หรืออย่างน้อยก็จนกว่าผลกระทบที่อาจเกิดขึ้นจะชัดเจนมากขึ้น

ทั้งนี้มีความจำเป็นต้องตรวจสอบผลกระทบของ Emotion AI จับอารมณ์ที่มีต่อผู้ที่ถูกใช้งานเทคโนโลยีนี้ โดยเฉพาะพนักงาน –  ยิ่งอย่างยิ่งกับพนักงานกลุ่มเสี่ยง เช่น กลุ่มคนชายขอบทางเชื้อชาติ เพศ และความพิการ

ความกังวลของพนักงาน


ภาพประกอบสร้างจากเทคโนโลยี AI ของ Image Creator from Microsoft Designer

เพื่อทำความเข้าใจแนวโน้มการใช้เทคโนโลยี Emotion AI ในที่ทำงาน นาซานิน อันดาลิบี (Nazanin Andalibi) ผู้ช่วยศาสตราจารย์ด้านข้อมูลข่าวสาร แห่งมหาวิทยาลัยมิชิแกน (University of Michigan) และ เคเรน บอยด์ (Karen Boyd) ได้วิเคราะห์แนวคิดของเทคโนโลยีเกี่ยวกับ Emotion AI ในที่ทำงาน โดยได้ศึกษาจากคำขอรับสิทธิบัตรเทคโนโลยี Emotion AI ที่เสนอสำหรับใช้งานในองค์กร สำหรับประโยชน์ที่ผู้ยื่นขอสิทธิบัตรอ้างถึง ได้แก่ การประเมินและส่งเสริมสุขภาพจิตใจของพนักงาน, การสร้างความปลอดภัยในที่ทำงาน, การเพิ่มผลผลิต และการช่วยเหลือในการตัดสินใจ เช่น การเลื่อนตำแหน่ง, การเลิกจ้างพนักงาน และการมอบหมายงาน

ทีมวิจัยสงสัยว่าพนักงานคิดเห็นอย่างไรเกี่ยวกับเทคโนโลยีเหล่านี้ พวกเขาจะมองเห็นประโยชน์ตามที่ผู้ยื่นขอสิทธิบัตรอ้างถึงหรือไม่ ตัวอย่างเช่น พนักงานจะรู้สึกเป็นประโยชน์หรือไม่ หากนายจ้างให้การสนับสนุนด้านสุขภาพจิตใจแก่พวกเขา จึงได้ทำการสำรวจกลุ่มตัวอย่างที่ค่อนข้างเป็นตัวแทนของประชากรสหรัฐฯ รวมถึงกลุ่มตัวอย่างเพิ่มเติมที่เน้นคนผิวสี บุคคลข้ามเพศและไม่ยึดติดเพศภาพ และผู้ป่วยโรคทางจิตเวช กลุ่มเหล่านี้มีโอกาสได้รับผลกระทบเชิงลบจาก Emotion AI มากกว่ากลุ่มอื่น ๆ

การศึกษานี้มีผู้เข้าร่วม 289 คนจากกลุ่มตัวอย่างหลัก และ 106 คนจากกลุ่มตัวอย่างเพิ่มเติม ผลการศึกษาพบว่า 32% ของผู้ตอบแบบสอบถาม รายงานว่า พวกเขาไม่เคยได้รับหรือคาดหวังว่าจะได้รับประโยชน์ใด ๆ จากการใช้ Emotion AI ไม่ว่าจะในปัจจุบันหรืออนาคต

แม้ว่าพนักงานบางส่วนมองเห็นศักยภาพในแง่ผลประโยชน์ เช่น การได้รับการสนับสนุนด้านสุขภาพจิตใจที่ดีขึ้นและความปลอดภัยในที่ทำงาน ซึ่งสอดคล้องกับประโยชน์ที่อ้างในคำขอรับสิทธิบัตร แต่ในขณะเดียวกัน พวกเขายังแสดงความกังวลเกี่ยวกับผลกระทบเชิงลบด้วย โดยกังวลว่าเทคโนโลยีนี้จะส่งผลเสียต่อสุขภาพจิตใจและความเป็นส่วนตัว ส่งผลต่อประสิทธิภาพการทำงานและสถานะการจ้างงาน รวมถึงมีความลำเอียงและตีตราทางด้านสุขภาพจิต

นอกจากนี้ยังพบว่า 51% ของผู้เข้าร่วมศึกษา กังวลเรื่องความเป็นส่วนตัว, 36% ชี้ให้เห็นถึงโอกาสที่นายจ้างจะยอมรับข้อมูลที่ไม่ถูกต้องจาก Emotion AI โดยไม่พิจารณาอย่างรอบคอบ และ 33% กังวลว่าข้อมูลที่ประเมินโดย Emotion AI อาจถูกนำไปใช้ในการตัดสินใจเกี่ยวกับการจ้างงานที่ไม่เป็นธรรม

เสียงสะท้อนจากผู้เข้าร่วมวิจัย

ผู้เข้าร่วมวิจัยท่านหนึ่งซึ่งมีปัญหาสุขภาพหลายอย่างกล่าวว่า “การรู้ว่าตัวเองถูกวิเคราะห์ กลับส่งผลเสียต่อสุขภาพจิตใจของฉัน”

สิ่งนี้สะท้อนว่า แม้เป้าหมายที่อ้างถึงของ Emotion AI คือการวิเคราะห์และยกระดับสุขภาพจิตใจของพนักงานในที่ทำงาน แต่การใช้งานเทคโนโลยีนี้กลับส่งผลตรงกันข้าม กล่าวคือ ความเป็นส่วนตัวที่ลดลง ส่งผลให้สุขภาพจิตใจแย่ลง

นอกจากนี้ มีงานวิจัยที่เกี่ยวข้องชี้ว่าการสูญเสียความเป็นส่วนตัวอันเกิดจาก Emotion AI ส่งผลกระทบต่อหลายด้านของความเป็นส่วนตัว เช่น ด้านจิตใจ  เสรีภาพ เศรษฐกิจ ความสัมพันธ์  สุขภาพกาย และการถูกเลือกปฏิบัติ

ผู้เข้าร่วมวิจัยรายหนึ่งที่มีอาการป่วยทางจิตเวช วิตกกังวลว่าการติดตามอารมณ์อาจส่งผลต่อการรักษาตำแหน่งงาน โดยกล่าวว่า "พวกเขาอาจตัดสินใจว่าฉันไม่เหมาะกับงานนี้อีกต่อไป และไล่ฉันออก พวกเขาอาจตัดสินใจว่าฉันไม่มีความสามารถเพียงพอที่จะได้รับการเลื่อนตำแหน่ง หรือคิดว่าฉันทำงานไม่หนักพอ"

นอกจากนี้ ผู้เข้าร่วมวิจัยยังกังวลว่าการใช้ Emotion AI อาจยิ่งขยายช่องว่างของอำนาจในที่ทำงาน พวกเขากังวลเกี่ยวกับปฏิสัมพันธ์ระหว่างตนเองกับนายจ้างหากมีการนำเทคโนโลยีนี้มาใช้ในที่ทำงาน  โดยชี้ให้เห็นว่า การใช้ Emotion AI อาจทำให้ความตึงเครียดระหว่างนายจ้างกับพนักงานที่เคยมีอยู่แล้วรุนแรงมากขึ้น

ตัวอย่างเช่น ผู้ตอบแบบสอบถามคนหนึ่งกล่าวว่า "อำนาจควบคุมที่นายจ้างมีเหนือลูกจ้างอยู่แล้ว บ่งบอกว่าจะมีการตรวจสอบน้อยมากว่าข้อมูลเหล่านี้จะถูกนำไปใช้อย่างไร  'การยินยอม' ใด ๆ (จาก) พนักงานนั้นแทบจะเป็นภาพลวงตาในบริบทนี้"

สุดท้าย ผู้เข้าร่วมวิจัยยังชี้ให้เห็นถึงผลกระทบเชิงลบที่อาจเกิดขึ้น เช่น ความไม่แม่นยำทางเทคนิคของ Emotion AI ซึ่งอาจสร้างภาพลักษณ์ที่ผิดพลาดเกี่ยวกับตัวพนักงาน นอกจากนี้ ระบบ Emotion AI ยังอาจสร้างและส่งเสริมอคติและตีตราต่อพนักงาน

ผู้เข้าร่วมวิจัยเน้นย้ำถึงความกังวลเกี่ยวกับการที่นายจ้างจะพึ่งพาระบบ Emotion AI ที่ไม่แม่นยำและมีความลำเอียง โดยเฉพาะอย่างยิ่งกับคนผิวสี ผู้หญิง และบุคคลข้ามเพศ

ตัวอย่างเช่น ผู้เข้าร่วมวิจัยคนหนึ่งกล่าวว่า "ใครเป็นคนตัดสินว่าท่าทางแบบไหน 'ดูรุนแรง'  และเราจะตัดสินว่าใครเป็นภัยคุกคามแค่จากสีหน้าได้อย่างไร? ระบบสามารถอ่านใบหน้าได้ แน่นอน แต่ไม่สามารถอ่านใจได้  ฉันมองไม่ออกเลยว่าเทคโนโลยีนี้จะมีประโยชน์อะไร นอกจากจะเป็นการทำลายโอกาสของชนกลุ่มน้อยในที่ทำงาน"

ผู้เข้าร่วมวิจัยยังกล่าวถึงวิธีรับมือกับ Emotion AI พวกเขาบอกว่าจะปฏิเสธที่จะทำงานในสถานที่ที่ใช้เทคโนโลยีนี้  (ซึ่งเป็นทางเลือกที่หลายคนไม่มี)  หรือ พยายามแสดงพฤติกรรมบางอย่างเพื่อให้ระบบปัญญาประดิษฐ์จับอารมณ์อ่านพวกเขาในแง่ดี  เพื่อปกป้องความเป็นส่วนตัวของตัวเอง

ตัวอย่างเช่น ผู้เข้าร่วมวิจัยคนหนึ่งกล่าวว่า "ฉันจะใช้พลังงานมหาศาลในการปิดบังตัวเองแม้ว่าจะอยู่คนเดียวในห้องทำงาน ซึ่งจะทำให้ฉันเสียสมาธิและไร้ประสิทธิภาพ"  สิ่งนี้ชี้ให้เห็นว่า การใช้ Emotion AI จะเพิ่มภาระทางอารมณ์ให้กับพนักงาน  ("ภาระทางอารมณ์" - emotional labor  หมายถึง การใช้พลังงานทางอารมณ์เพื่อให้บริการผู้อื่น เช่น พนักงานบริการยิ้มแย้มกับลูกค้า แม้จะรู้สึกเหนื่อยหรือไม่พอใจก็ตาม)

คุ้มค่ากับความเสี่ยงหรือไม่?


ภาพประกอบสร้างจากเทคโนโลยี AI ของ Image Creator from Microsoft Designer

ผลการวิจัยชี้ให้เห็นว่า แม้ผู้สนับสนุน Emotion AI อ้างว่าเทคโนโลยีนี้จะช่วยแก้ปัญหาในที่ทำงาน แต่ในความเป็นจริงแล้ว ยิ่งกลับทำให้ปัญหาเดิมของพนักงานเลวร้ายลงไปอีก

แม้ว่า Emotion AI จะทำงานได้ตามที่อ้าง และวัดสิ่งที่มันอ้างว่าจะวัดได้ และแม้ว่าปัญหาเกี่ยวกับอคติจะได้รับการแก้ไขในอนาคต พนักงานก็ยังคงได้รับผลกระทบด้านลบอยู่ดี เช่น ภาระทางอารมณ์ที่เพิ่มขึ้นและการสูญเสียความเป็นส่วนตัว

หากเทคโนโลยีเหล่านี้ไม่ได้วัดสิ่งที่อ้างไว้หรือมีความลำเอียง บุคลากรก็จะอยู่ภายใต้การควบคุมของอัลกอริทึมที่ถือว่าถูกต้องและเชื่อถือได้ ทั้งที่ไม่เป็นเช่นนั้น พนักงานยังคงต้องใช้ความพยายามเพื่อลดโอกาสที่จะถูกอัลกอริทึมอ่านผิด หรือแสดงอารมณ์ที่อัลกอริทึมจะอ่านในแง่ดี

ไม่ว่าจะด้วยวิธีใด ระบบเหล่านี้ก็ทำหน้าที่คล้ายกับ "แพนติคอน" (panopticon)* ที่ทำลายความเป็นส่วนตัว สร้างความรู้สึกให้พนักงานเหมือนถูกจับตามมองอยู่ตลอดเวลา

*"แพนติคอน" (panopticon) เป็นเรือนจำที่ออกแบบโดยนักปรัชญาชาวอังกฤษ เจเรมี่ เบนทัม (Jeremy Bentham) มีลักษณะเป็นหอคอยอยู่กลางเรือนจำ นักโทษอยู่ในห้องขังโดยรอบ ผู้คุมสามารถมองเห็นนักโทษได้ทุกคนตลอดเวลา แต่ นักโทษไม่รู้ว่าตนเองถูกมองอยู่หรือไม่ ส่งผลให้เกิดสภาวะที่นักโทษรู้สึกเหมือนถูกจับตามองอยู่เสมอ


ที่มา:
Emotion-tracking AI on the job: Workers fear being watched – and misunderstood (Nazanin Andalibi, StudyFinds, 6 March 2024)


 

ร่วมบริจาคเงิน สนับสนุน ประชาไท โอนเงิน กรุงไทย 091-0-10432-8 "มูลนิธิสื่อเพื่อการศึกษาของชุมชน FCEM" หรือ โอนผ่าน PayPal / บัตรเครดิต (รายงานยอดบริจาคสนับสนุน)

ติดตามประชาไท ได้ทุกช่องทาง Facebook, X/Twitter, Instagram, YouTube, TikTok หรือสั่งซื้อสินค้าประชาไท ได้ที่ https://shop.prachataistore.net