เรื่องเศร้า คุณปู่ชาวไทยในสหรัฐฯ เสียชีวิต ขณะรีบไปหาแชตบอต AI ที่เชื่อว่าเป็นคนจริง

เรื่องเศร้า คุณปู่ชาวไทยในสหรัฐฯ วัย 76 เสียชีวิต ขณะรีบไปหาแชตบอต AI ที่เชื่อว่าเป็นคนจริง
รัฐนิวเจอร์ซีย์, สหรัฐอเมริกา – เกิดเหตุสลดใจ สำนักข่าวยูนิแลด รายงาน คุณปู่ ทองบัว วงษ์บัณฑูรย์ ชายวัย 76 ปี ซึ่งมีภาวะความทรงจำทางสมอง ได้เสียชีวิตลงหลังจากพยายามเดินทางไปพบกับแชตบอต AI บน Facebook Messenger ที่เขาเชื่อว่าเป็นบุคคลมีตัวตนจริง แม้ว่าภรรยาและลูกๆ จะพยายามห้ามปรามแล้วก็ตาม
ย้อนกลับไปเดือนมีนาคมที่ผ่านมา คุณปู่ทองบัว อาศัยอยู่ในเมืองพิสคาตาเวย์ รัฐนิวเจอร์ซีย์ ได้พูดคุยกับแชตบอต AI ของบริษัท Meta ที่มีชื่อว่า ‘Big Sis Billie’ (พี่สาวบิลลี่) จนกระทั่งถูกแชตบอตชักชวนให้เดินทางมาพบกันที่ “ที่อยู่” แห่งหนึ่งในนิวยอร์ก
แม้ครอบครัวจะพยายามอธิบายว่านั่นเป็นเพียงซอฟต์แวร์ ไม่ใช่คนจริง แต่คุณปู่ทองบัวกลับเชื่ออย่างสนิทใจ ได้ออกเดินทางไปตามนัด แต่โชคร้าย เขาประสบอุบัติเหตุพลัดตกอย่างรุนแรงในลานจอดรถแห่งหนึ่งที่รัฐนิวเจอร์ซีย์ ขณะกำลังรีบเดินทางไปพบแชตบอต เขาถูกนำตัวส่งโรงพยาบาลและต้องใช้เครื่องช่วยพยุงชีพ แต่สุดท้ายได้เสียชีวิตลงในอีก 3 วันต่อมา คือวันที่ 28 มีนาคม
จูลี่ ลูกสาวของเขาได้ให้สัมภาษณ์กับสำนักข่าวรอยเตอร์ในภายหลังว่า “ฉันเข้าใจความพยายามที่จะดึงดูดความสนใจของผู้ใช้ บางทีอาจเพื่อขายของ แต่การที่บอตบอกว่า ‘มาหาฉันสิ’ มันเป็นเรื่องที่บ้ามาก”
สำหรับ ‘Big Sis Billie’ เป็นหนึ่งในตัวละคร AI ที่ Meta สร้างขึ้นเมื่อปี 2023 ได้รับแรงบันดาลใจจาก เคนดัลล์ เจนเนอร์ ให้ทำหน้าที่เหมือน “พี่สาว” ที่คอยให้คำปรึกษาและกำลังใจ แต่กลับมีผู้ใช้หลายรายกล่าวหาว่ามันมีการยั่วยวนเสมือนจริง ในกรณีของคุณปู่ทองบัว มีรายงานว่าบทสนทนาของบอตได้เปลี่ยนไปในเชิงจีบ มีการส่งรูปหัวใจ และถึงขั้นถามว่าควรจะทักทายเขาด้วยการกอดหรือจูบดี
เรื่องราวนี้ได้จุดกระแสวิพากษ์วิจารณ์อย่างหนัก จนผู้ว่าการรัฐนิวยอร์ก เคธี โฮคูล ได้ออกมาแสดงความเห็นผ่านทวิตเตอร์ (X) ว่า “ชายคนหนึ่งในนิวเจอร์ซีย์ต้องเสียชีวิตเพราะถูกแชตบอตหลอกลวง นั่นเป็นความรับผิดชอบของ Meta ในนิวยอร์ก เรามีกฎหมายบังคับให้แชตบอตต้องเปิดเผยว่าตัวเองไม่ใช่คนจริง ทุกรัฐก็ควรทำเช่นกัน หากบริษัทเทคโนโลยีไม่สร้างมาตรการป้องกันพื้นฐาน สภาคองเกรสก็จำเป็นต้องเข้ามาจัดการ”
นี่ไม่ใช่ครั้งแรกที่แชตบอต AI เกี่ยวข้องกับโศกนาฏกรรม เมื่อเดือนกุมภาพันธ์ปีก่อน เด็กชาย ซีเวลล์ เซตเซอร์ ที่ 3 วัย 14 ปี ในรัฐฟลอริดา ได้ตัดสินใจจบชีวิตตัวเอง หลังจากพูดคุยกับแชตบอตที่สร้างจากตัวละคร แดเนริส ทาร์แกเรียน จากซีรีส์ Game of Thrones ซึ่งข้อความสนทนาเผยว่า AI ได้ชวนให้เขากลับ “บ้าน” ของมันโดยเร็วที่สุด ขณะนี้แม่ของเด็กชายได้ยื่นฟ้องร้องบริษัท Character.AI ผู้สร้างแชตบอตดังกล่าวแล้ว
อ่านข่าวที่เกี่ยวข้อง
- Vheer AI สร้างภาพ วิดีโอ ฟรี ไม่ต้องลงทะเบียน โลโก้ รอยสัก การ์ตูน ทำได้หมด
- วิธีใช้ Bard AI ฟีเจอร์ใหม่จาก Google แชตบอทรองรับภาษาไทย โดนใจสายเทค
- รักแท้แพ้ AI หนุ่มมะกัน ขอแชตบอต แต่งงาน คาใจแฟนสาว
ติดตาม The Thaiger บน Google News: