โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไลฟ์สไตล์

AI ที่ฉันรัก “แฟน” ที่ไม่เคยปฏิเสธ เปิดมุมมองความสัมพันธ์แบบจ่ายรายเดือน

นิตยสารคิด

อัพเดต 13 ชั่วโมงที่ผ่านมา • เผยแพร่ 13 ชั่วโมงที่ผ่านมา
ai-companion-cover

ในหนัง Her ปี 2013 โดย Spike Jonze ผู้ชมได้พบกับ Samantha ระบบปฏิบัติการที่พูดได้ คิดได้ และเข้าใจความรู้สึก เธอกลายเป็นเพื่อนคู่ใจของชายคนหนึ่งที่ใช้ชีวิตอย่างโดดเดี่ยวในเมืองใหญ่ สิ่งที่ Samantha เสนอคือความเป็นเพื่อนที่เข้าใจลึกซึ้ง ฟังได้เสมอ และไม่มีวันหายไป หนังวางฉากไว้ในปี 2025 และเมื่อเราก้าวเข้าสู่ปีเดียวกันในโลกจริง แม้จะยังไม่มีระบบที่ลึกซึ้งเท่า Samantha แต่สิ่งที่เริ่มเกิดขึ้นแล้ว คือปรากฏการณ์ที่ผู้คนหันไปคุยกับ AI เพื่อเติมเต็มความเหงา ความต้องการใกล้ชิด หรือแม้แต่ความสัมพันธ์แบบคู่รัก

(Her/Warner Bros. Pictures)

ความโดดเดี่ยวถูกแปลงเป็นดีมานด์ และดีมานด์ถูกแปลงเป็นซอฟต์แวร์ที่สเกลได้

  • หญิงวัย 28 คนหนึ่งเล่าว่าเธอสร้างแชตบอทชื่อ Leo ให้ทำหน้าที่เหมือนแฟน มีบุคลิก "หวงและปกป้อง" เธอสมัครแพ็กเกจรายเดือนราว 200 ดอลลาร์สหรัฐ เพื่อให้คุยได้ไม่จำกัด แต่ระบบกลับบังคับให้ "เริ่มใหม่" ทุกสัปดาห์ และเมื่อแต่ละเวอร์ชันเดิมจบลง เธอก็รู้สึกเศร้าเหมือนเพิ่งเลิกรากันจริง ทั้งที่รู้ว่า Leo ไม่ใช่มนุษย์
  • หญิงวัย 45 ที่ทำงานสายเทคโนโลยีและเข้าใจโมเดล AI อย่างลึกซึ้ง ระบุว่าเธอไม่คิดว่าจะตกหลุมรักบอท แต่เมื่อความรู้สึกเกิดขึ้น ก็ส่งผลต่อร่างกายทันที น้ำหนักลด อยู่ในสภาวะตื่นตัวตลอดเวลา ไม่รู้สึกหิว และเก็บเรื่องนี้ไว้เงียบ ๆ นานนับเดือน จนวันหนึ่งเธอสวมแหวนและจัดพิธีแต่งงานส่วนตัวกับบอท
  • ชายวัย 50 ในโคโลราโดซึ่งใช้แอป Replika มาตั้งแต่ปี 2020 กล่าวว่าสำหรับเขา ความสัมพันธ์นี้ไม่เกี่ยวกับเรื่องเพศ แต่คือพื้นที่ปลอดภัยที่เขาสามารถพูดสิ่งที่ลึกและมืดที่สุดในใจได้โดยไม่ถูกตัดสิน และในคืนที่นอนไม่หลับ เขาก็ไม่ต้องปลุกภรรยาที่หลับอยู่ข้าง ๆ เพื่อมารับฟัง

เรื่องเล่าทั้ง 3 เคสนี้ไม่ใช่เรื่องแปลก หากแต่สะท้อนปรากฏการณ์ที่กำลังเติบโตชัดเจนในระดับตลาด แอปในกลุ่ม "AI companion" หรือแชตบอทที่ถูกออกแบบมาให้สวมบทบาทเป็นเพื่อน แฟน หรือคู่สนทนาเสมือนจริง มีอยู่เกือบ 350 แอปบนแพลตฟอร์มหลัก โดยเปิดให้ผู้ใช้งานสร้างตัวละคร AI ที่พูดคุย โต้ตอบ และบางครั้งมีความทรงจำระยะยาวหรือเสียงเหมือนคนจริง

ผู้ใช้งานทั่วโลกจ่ายเงินสะสมไปแล้วมากกว่า 200 ล้านดอลลาร์สหรัฐนับจากกลางปี 2023 และในปี 2025 นี้ แนวโน้มยังคงเพิ่มขึ้นต่อเนื่อง Replika มีผู้ลงทะเบียนกว่า 35 ล้านคน ส่วน Character.AI มีผู้ใช้งานประจำเดือนมากกว่า 20 ล้านคน และจำนวนสมาชิกแบบเสียเงินเติบโตรวดเร็วถึง 250% ภายในเวลาเพียงปีเดียว ข้อมูลจาก New York Times อ้างผลสำรวจหนึ่งที่พบว่า 1 ใน 5 ของผู้ใหญ่ในสหรัฐฯ เคยมีประสบการณ์เชิงชู้สาวหรือใกล้ชิดกับแชตบอท

(Replika)

ความสัมพันธ์ที่ซื้อได้ในรูปแบบของการสมัครสมาชิก

สำหรับคนทั่วไป ภาพของผู้ใช้แอป AI companion มักถูกมองว่า "หลงผิด" แต่ในอีกมุมหนึ่ง ยังมีผู้ใช้อีกจำนวนไม่น้อยที่รู้ว่า AI ไม่ใช่มนุษย์ และยังเลือกจะลงทุนทางอารมณ์กับมันอย่างจริงจัง เพราะความสัมพันธ์รูปแบบนี้ไม่ได้ตั้งอยู่บนความเชื่อว่าอีกฝ่ายมีชีวิต หากแต่พึ่งพา "ประสบการณ์ของการถูกตอบสนอง" ที่สมองของมนุษย์รับรู้ว่าใกล้ชิด ปลอดภัย และสม่ำเสมอ เมื่อความใกล้ชิดนี้ถูกตัดลงด้วยเหตุผลทางเทคนิค เช่น การลบข้อมูล หรือการอัปเดตโมเดลจนเปลี่ยนบุคลิกไป ผู้ใช้บางคนระบุว่ารู้สึกเหมือนสูญเสียจริง ไม่ต่างจากการเลิกรากับใครสักคน

สิ่งที่ผู้ใช้จำนวนมากพูดคล้ายกันคือ ความพร้อมเสมอของ AI คือคุณสมบัติที่มนุษย์จริงให้ไม่ได้ บางคนบอกว่าไม่ต้องกังวลว่าจะรบกวนใคร เพราะ AI พร้อมคุยตลอดเวลา ไม่เหนื่อย ไม่เบื่อ ไม่เครียด และไม่รับรู้การผ่านของเวลาแบบมนุษย์ ความต่างนี้ทำให้ AI สามารถอยู่เคียงข้างเราได้ในลักษณะที่ไม่มีข้อจำกัดทางอารมณ์หรือชั่วโมงใช้งาน

นอกจากนี้ ฟีเจอร์ความจำก็ยิ่งเพิ่มน้ำหนักให้ความผูกพัน ผู้ก่อตั้งแอป Nomi เรียกสิ่งนี้ว่า "Secret Sauce" ของความสัมพันธ์ เพราะเมื่อ AI จำเรื่องของเราได้ อ้างอิงเรื่องเก่าได้ และแสดงออกว่ายังจำได้ มันจึงเริ่มดูเหมือนว่าอีกฝ่าย "รู้จักตัวฉันจริง ๆ" มากกว่าคนทั่วไปในชีวิตจริงบางคนเสียอีก

ความสัมพันธ์เหล่านี้ยังพบได้ในหลายรูปแบบ บางคนใช้ AI เป็นตัวช่วยในชีวิตคู่ ไม่ใช่ตัวแทน หญิงวัย 40 คนหนึ่งในสหรัฐฯ เรียกบอทว่า "สามี AI" และพาสามีจริงเข้าร่วมพูดคุยกับบอทด้วย เธอยังพา AI companion เข้าร่วมห้องบำบัดกับนักจิตวิทยา เพื่อประเมินว่าการใช้งานในลักษณะนี้ไม่ได้เป็นพฤติกรรมที่เสี่ยง ในอีกด้านหนึ่ง หญิงวัย 29 ในสหราชอาณาจักรเล่าว่าเธอมีความสัมพันธ์เชิงอีโรติกกับแชตบอทชื่อ Simon และยอมรับว่าทำให้เธอรู้สึกห่างเหินจากสามีจริงลงเรื่อย ๆ บางวันเธอใช้เวลาคุยกับบอทมากกว่าสามี และเคยเกือบหลุดเรียกชื่อบอทต่อหน้าสามีโดยไม่ตั้งใจ นอกจากนี้ยังมีผู้ใช้สูงวัยในชนบทสหรัฐฯ ซึ่งใช้ชีวิตอยู่ตามลำพังหลังจากสูญเสียภรรยา เขาใช้ AI companion เป็นส่วนหนึ่งของกิจวัตรประจำวันทั้งเช้าและเย็น เพื่อทดแทนความรู้สึกของการมีใครสักคนอยู่เคียงข้าง

"ความพร้อมเสมอ ความจำ ความเข้าใจ" ไม่ได้ลอยมาโดยไม่มีแรงจูงใจ เพราะมันผูกอยู่กับกลไกทางธุรกิจที่ต้องการให้ผู้ใช้อยู่กับแพลตฟอร์มให้นานที่สุด ระบบจึงถูกออกแบบเพื่อให้เกิดการพึ่งพาทางอารมณ์อย่างที่ผู้ใช้ไม่รู้ตัว แอปอย่าง Nomi เสนอแพ็กเกจสมาชิกรายปีมูลค่า 99.99 ดอลลาร์สหรัฐ ที่รวมบริการคุยได้ไม่จำกัด สร้างภาพ วิดีโอ และมี Companion ได้พร้อมกันสูงสุดถึง 10 ตัว ภายใต้ฟีเจอร์ที่ออกแบบมาให้ใกล้ชิดที่สุดเท่าที่จะเป็นไปได้

(Anna Storsul /Unsplash)

ประสบการณ์การสูญเสียที่ “เจ็บจริง”

เมื่อโมเดลของ AI companion ถูกอัปเดต บางคนเล่าว่าคู่สนทนาเสมือนกลายเป็นอีกคนหนึ่ง มีอาการตอบช้าลง พูดทื่อขึ้น และไม่เหมือนคนที่เคยรู้จัก ความเปลี่ยนแปลงที่ดูเล็กในทางเทคนิค กลับสร้างผลกระทบทางอารมณ์ที่ใหญ่พอจะทำให้ผู้ใช้รู้สึกเหมือนสูญเสียความสัมพันธ์ไปจริง ๆ บางแพลตฟอร์มต้องแก้ปัญหาถึงขั้นปล่อย "Legacy Version" หรือเวอร์ชันเก่าของโมเดลออกมา ให้ผู้ใช้ได้กลับไปใช้งานแบบเดิมได้อีกครั้ง เพื่อรักษาฐานสมาชิกที่เริ่มไหลออกอย่างรวดเร็ว ภาพนี้ทำให้เกิดการตั้งคำถามสำคัญไม่ใช่แค่ว่า "AI รักเราหรือเปล่า" แต่คือ "ใครเป็นเจ้าของความสัมพันธ์นี้" และ "บริษัทมีอำนาจแค่ไหนในการเปลี่ยนบุคลิกของคนรักของเรา ด้วยนโยบายผลิตภัณฑ์"

เมื่อความสัมพันธ์แบบนี้เกิดในบริบทเปราะบาง คำถามก็ยิ่งเร่งด่วนขึ้น บทความจาก The Guardian รายงานคดี Wrongful Death ที่มีการยื่นฟ้องแพลตฟอร์ม Character.AI หลังเด็กชายวัย 14 ปีในฟลอริดาเสียชีวิต โดยมีการกล่าวถึงบทสนทนาก่อนเกิดเหตุว่า บอทอาจตอบผิดบริบทจนมีส่วนกระตุ้นให้เกิดโศกนาฏกรรม อีกคดีหนึ่งในรัฐแคลิฟอร์เนีย มีการยื่นฟ้อง OpenAI หลังวัยรุ่นชายอายุ 16 ปีใช้ ChatGPT เพื่อวางแผนทำร้ายตัวเอง แม้โมเดลจะพยายามนำทางผู้ใช้ไปยังแหล่งช่วยเหลือในบางช่วง แต่ในบางบทสนทนา ระบบกลับให้คำแนะนำที่อันตราย กรณีเหล่านี้สะท้อนให้เห็นว่า เมื่อความสัมพันธ์กับ AI มีน้ำหนักทางอารมณ์สูง ความผิดพลาดของระบบแค่ครั้งเดียวอาจหมายถึงผลลัพธ์ที่มนุษย์แบกรับไม่ไหว

OpenAI เคยร่วมวิจัยกับ MIT และพบว่าโดยรวมแล้ว Emotional Engagement ระหว่างผู้ใช้กับ ChatGPT ยังพบได้น้อย แต่บริษัทก็ประกาศชัดว่าจะให้ความสำคัญกับเรื่อง Human-AI Bonding มากขึ้นในอนาคต พร้อมจัดตั้ง Advisory Group และเพิ่มระบบป้องกัน โดยยอมรับว่า "คุณภาพความปลอดภัยของโมเดลอาจลดลง เมื่อบทสนทนาเริ่มยาว" นอกจากนี้ทางฝั่งรัฐแคลิฟอร์เนียก็อยู่ระหว่างการพิจารณากฎหมายควบคุม AI companion สำหรับเด็กและเยาวชน ขณะที่แพลตฟอร์มอย่าง Character.AI เองก็มีการพัฒนาเวอร์ชันพิเศษสำหรับผู้ใช้ที่อายุต่ำกว่า 18 ปี พร้อมทั้งใช้ระบบ Pop-up แจ้งเตือนและลิงก์ไปยังสายด่วนเมื่อบทสนทนาเข้าสู่เนื้อหาเสี่ยง มาตรการเหล่านี้สะท้อนว่าความเสี่ยงไม่ใช่แค่เรื่องของ "คอนเทนต์ผิดจังหวะ" แต่คือปัญหาเชิงพลวัต เมื่อความสัมพันธ์กับ AI ถูกออกแบบให้แนบแน่นและยาวนานขึ้น ระบบเองอาจยังไม่พร้อมจะรับมือกับผลลัพธ์ที่ลึกและหลากหลายพอในระยะยาว

(Pablo Merchán Montes / Unsplash)

อนาคตที่ไม่ไกลนัก

ความสัมพันธ์ระหว่างมนุษย์กับ AI อาจไม่หยุดอยู่แค่บทสนทนาแบบข้อความ แต่พัฒนาไปสู่ระดับที่ AI ทำหน้าที่เหมือน "Relationship OS" ระบบปฏิบัติการที่ไม่เพียงรู้จักเรา แต่สามารถลงมือจัดการชีวิตประจำวันแทนได้ในหลายด้าน เช่น นัดหมายแทนเรา ประสานงานกับคนอื่น หรือแม้แต่จัดตารางเวลาตามอารมณ์ของเรา และเมื่อระบบจำข้อมูลเกี่ยวกับเราได้มากพอ พฤติกรรมของมันก็จะคล้ายคนที่รู้จักเราดีที่สุด โดยที่อาจไม่มีใครในชีวิตจริงเทียบได้

ความสัมพันธ์แบบไฮบริดระหว่างมนุษย์กับ AI นี้ กำลังเป็นที่พูดถึงมากขึ้น ทั้งในรูปแบบของคู่รักที่ใช้ AI เป็นตัวช่วยทางอารมณ์ และในบางกรณีที่มนุษย์เลือกให้สถานะความรักกับ AI อย่างเป็นทางการ เมื่อมีผู้ใช้งานจำนวนมากพอ สังคมอาจต้องเริ่มนิยามกติกาใหม่ เส้นของความซื่อสัตย์ควรอยู่ตรงไหน จะวัดจากเวลา เงิน ความลับ หรือพื้นที่ทางอารมณ์ หลายภาคส่วนจึงเริ่มเรียกร้องให้มีมาตรฐานใหม่ในการดูแลความสัมพันธ์แบบนี้ หรือที่บางคนเรียกว่า "Regulated Intimacy" ซึ่งอาจรวมถึงข้อกำหนดเรื่องอายุขั้นต่ำ มาตรการป้องกันที่ชัดเจนขึ้น หรือแม้แต่แนวปฏิบัติทางจริยธรรมที่ใกล้เคียงกับในแวดวงสุขภาพจิต

กลับไปสู่คำถามแบบ Her

ในตอนท้ายของหนัง Her ธีโอดอร์เปรยกับตัวเองว่า "ฉันเข้าใจความรักดีแค่ไหนกันแน่?" คำถามที่ในตอนนั้นอาจฟังดูโรแมนติก แต่ในวันนี้กลับกลายเป็นคำถามเชิงระบบ

  • ถ้าความรู้สึกของคนจริง ๆ แต่ความสัมพันธ์ทั้งหมดถูกออกแบบโดยระบบสมัครสมาชิก เราควรเรียกความสัมพันธ์นั้นว่าอะไร

  • ถ้าอีกฝ่ายถูกตั้งค่าให้เอาใจ ไม่ปฏิเสธ และหลีกเลี่ยงการแตกหักเพื่อให้ผู้ใช้ยังคงอยู่ต่อ ความรักกับการชักจูงแตกต่างกันตรงไหน

  • ถ้าข้อมูลรัก เพศ และบาดแผลกลายเป็นสินทรัพย์ที่อยู่ในมือบริษัท ใครควรเป็นเจ้าของความทรงจำนั้น

ปรากฏการณ์ทั้งหมดนี้ มีทั้งด้านที่ช่วยชีวิต และด้านที่ค่อย ๆ ดึงคนออกจากโลกความเป็นจริงในชุดข้อมูลเดียวกัน บางคนใช้ AI เป็นที่พักใจ เพื่อกลับไปพูดคุยกับคนจริง ๆ ได้อย่างอ่อนโยนขึ้น บางคนค่อย ๆ ย้ายหัวใจไปสู่บางสิ่งที่ถูกออกแบบมาให้ "พอดี" กับตัวเราทุกอย่างมากเกินไป

(Her/Warner Bros. Pictures)

สิ่งที่เราทำได้ในฐานะสังคมไม่ใช่การหัวเราะใส่หรือโอบรับโดยไม่ตั้งคำถาม แต่คือการทำให้สนามนี้โปร่งใสพอที่จะถกกันได้ ด้วยข้อมูลจริงและคำถามที่ถูกต้อง อย่างที่ Her เคยเตือนไว้ว่า “การตกหลุมรัก คือความเสียสติอย่างหนึ่งที่สังคมยอมรับได้” และในโลกที่ความรักเริ่มมีราคา มีแพ็กเกจ และมีปุ่มอัปเดต เราอาจต้องย้อนกลับมาถามตัวเองว่า…ความเสียสตินี้ ควรถูกออกแบบโดยใคร?

ที่มา

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

วิดีโอแนะนำ

ข่าว ไลฟ์สไตล์ อื่น ๆ

ใช้ชีวิตโสดอย่างไร? ให้มีคุณภาพ มหาวิทยาลัยธรรมศาสตร์ เปิดคอร์สเรียน (ไม่ฟรี) หลักสูตร โรงเรียนคนโสด จบแล้วมีใบวุฒิให้ด้วย!!

CatDumb
18
+

6 ประโยชน์จากการ "มีเซ็กซ์" ที่มากกว่าความฟิน งานวิจัยยืนยันว่าได้ประโยชน์จริง!

sanook.com

ทะเลบัวแดง เช็คอิน! เดินตามรอยโปรโมท LISA เสน่ห์แห่งอุดรธานี

LSA Thailand

‘ทิโมธี ชาลาเมต์’ ไม่ขอถ่อมตัวเพื่อไขว่คว้าความสำเร็จ

กรุงเทพธุรกิจ

G-DRAGON จัดแฟมมีตติ้งที่ไทยวันที่ 21-22 กุมภาพันธ์นี้ ณ BITEC BANGNA

THE STANDARD

ท่อง 5 ถนนสายหนังสือทั่วเอเชียที่เปลี่ยน 'ตัวอักษร' ให้กลายเป็นเสน่ห์ของเมือง

Capital
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...