โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

“Responsible Tech” เมื่อเทคโนโลยี(ที่ดี) ไม่ใช่แค่ทำกำไร แต่ต้องดูแลชีวิตผู้คน

ประชาชาติธุรกิจ

อัพเดต 29 ต.ค. 2568 เวลา 09.37 น. • เผยแพร่ 29 ต.ค. 2568 เวลา 08.25 น.

Responsible Tech (เทคโนโลยีที่มีความรับผิดชอบ) คือแนวคิดการพัฒนาและใช้เทคโนโลยีที่ทำให้มนุษย์มีชีวิตที่ดีขึ้น แต่ในขณะเดียวกันต้องมีความโปร่งใส มีจริยธรรม มีความรับผิดชอบต่อสังคมและผู้ใช้งาน เช่นเดียวกับแนวคิด ESG ที่หลายธุรกิจให้ความสำคัญกับสิ่งแวดล้อม สังคม และธรรมาภิบาล

เป้าหมายหลักของ Responsible Tech จึงไม่ใช่แค่การพัฒนาเทคโนโลยีเพื่อกอบโกยกำไร (Tech for their profit) แต่เทคโนโลยีดังกล่าวต้องตอบโจทย์ทั้งผู้คนและโลก (Tech for people and planet) และต้องมีความยั่งยืนควบคู่กัน

แต่เมื่อเทคโนโลยีดังกล่าวถูกพัฒนาหรือใช้อย่างขาดความรับผิดชอบ จะส่งผลกระทบต่อบุคคลและองค์กร ทั้งในแง่ความเชื่อมั่น ความผิดตามกฎหมาย และอาจละเมิดหลักสิทธิมนุษยชน ยังไม่รวมถึงการใช้พลังงานที่มากเกินความจำเป็น และปัญหาจากเทคโนโลยี เช่น การมีอคติในการคิด-ตัดสินใจ ซึ่งพบเห็นได้จากการใช้งาน Chatbot AI

สำหรับ Responsible Tech อาจจะเป็นคำที่หลาย ๆ คนยังไม่คุ้นตา แต่หากย้อนกลับไปดูกรณีหรือสถานการณ์ที่เคยเกิดขึ้นก่อนหน้านี้ ล้วนเป็นตัวอย่างที่ทำให้เห็นถึงปัญหาด้าน Responsible Tech ที่กำลังเกิดขึ้นในวันนี้

อ.ปริญญา หอมเอนก ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัยไซเบอร์ ประธานกรรมการบริหาร บริษัท เอซิส โปรเฟสชั่นนัล เซ็นเตอร์ จำกัด ฉายภาพสถานการณ์ของ Responsible Tech ในปัจจุบันของไทย ว่าโดยส่วนใหญ่ ชาวไทยจะเป็นผู้ใช้งานเทคโนโลยีต่าง ๆ โดยเฉพาะเทคโนโลยีปัญญาประดิษฐ์ (AI) แต่มักจะยังมีความรู้ ความเท่าทันเทคโนโลยีที่ยังไม่เพียงพอ

ที่ผ่านมา เรามักจะพูดถึงทักษะการใช้งานเทคโนโลยีดิจิทัล ตั้งแต่ยุค ICT Literacy จนถึง Digital Literacy เช่น ใช้โปรแกรมสำนักงานเป็นหรือไม่ ใช้สมาร์ทโฟนหรืออุปกรณ์เทคโนโลยีต่าง ๆ เป็นหรือไม่ แต่ปัจจุบันมีการพูดถึงทักษะการใช้เทคโนโลยี AI หรือ AI Literacy ตั้งแต่ทักษะการใช้งาน AI เป็นอย่างไร สามารถใช้ได้อย่างปลอดภัย ไม่โดนแพลตฟอร์มเอาเปรียบ และไม่ทำให้ข้อมูลสำคัญอยู่ในความเสี่ยงต่อการรั่วไหลหรือไม่

ในมุมของผู้พัฒนาเทคโนโลยี อ.ปริญญา สะท้อนว่า แม้แพลตฟอร์มส่วนใหญ่จะให้บริการฟรี แต่มักจะแอบเข้าถึงข้อมูลต่าง ๆ เข้าถึงความเป็นส่วนตัวของผู้ใช้งานเพื่อนำเสนอโฆษณา และมีการซื้อขายข้อมูลพฤติกรรมผู้ใช้งานให้กับบริษัทอื่น ๆ ด้วย

ขณะเดียวกัน บางแพลตฟอร์มยังสร้างผลกระทบต่อผู้ใช้งาน เช่น การใช้ AI เพื่อช่วยคัดผู้สมัครงาน ซึ่งสะท้อนเรื่องของอคติและการเลือกปฏิบัติที่เกิดในบางตำแหน่งงาน หรือการถามข้อมูลผ่านแชตบอท AI อาจนำไปสู่การรับรู้หรือเชื่อข้อมูลที่ผิด (Filter Bubble Effect) การเลือกเชื่อ เลือกเสพเฉพาะคนหรือสิ่งที่คิดเหมือนกันกับเรา (Echo Chamber) และบางครั้ง คำแนะนำจาก AI หรือการทำงานของระบบอัตโนมัติเอง อาจทำให้เกิดการตัดสินใจที่ผิดพลาดและกลายเป็นอันตรายต่อชีวิตได้

นอกจากนี้ ยังมีกรณีอื่น ๆ เช่น การออกแบบระบบความปลอดภัย ซึ่งช่วยปกป้องลูกค้าหรือผู้ใช้งานได้ แต่ในทางปฏิบัติกลับไม่สะดวกต่อผู้ใช้งาน ทำให้บรรดาบริษัทเทคโนโลยีต้องโฟกัสที่ความสะดวกเพื่อรักษาลูกค้า และกลายเป็นช่องโหว่ของมิจฉาชีพตามมาด้วย หรือแม้แต่กรณีก่อนหน้านี้ ที่มีประชาชนไปยืนยันตัวตนด้วยการสแกนม่านตา โดยถูกจูงใจด้วยเงินจำนวนหนึ่ง แต่ต้องแลกความเสี่ยงในการถูกขโมยข้อมูลชีวมาตร (Biometrics) ซึ่งเป็นรหัสประจำตัวของเราคนเดียว

ทั้งหมดนี้ เป็นภาพสะท้อนหนึ่งว่า ผู้พัฒนามักจะโฟกัสที่การสร้างกำไรก่อน แล้วมองเรื่องของความยั่งยืนหรือความรับผิดชอบเป็นเรื่องรอง

นอกจากมิติของผู้ใช้งานและผู้พัฒนาแล้ว อีกหนึ่งกลุ่มสำคัญที่มีส่วนในการสร้าง Responsible Tech คือ ภาครัฐ ซึ่งที่ผ่านมามักเกิดปัญหากฎหมายที่ไม่ทันต่อสมัย ไม่ทันต่อเทคโนโลยีที่พัฒนาอย่างต่อเนื่อง เช่น การกำกับดูแล AI ซึ่งเติบโตอย่างรวดเร็ว มีผู้ใช้มากกว่าร้อยล้านคนทั่วโลก แต่ในหลาย ๆ ประเทศยังไม่มีการกำกับดูแลที่ชัดเจน

โลกกำกับ Responsible Tech

อ.ปริญญา ยกตัวอย่างพื้นที่ที่มีการกำกับดูแลเทคโนโลยีอย่างชัดเจน คือ สหภาพยุโรป ที่ใช้กฎหมายคุ้มครองข้อมูลส่วนบุคคล (GDPR) เป็นเครื่องมือในการป้องปราบบริษัทเทคโนโลยียักษ์ใหญ่ในการกอบโกยรายได้จากข้อมูลของผู้ใช้งาน และก่อนหน้านี้ เคยมีกรณีที่บริษัทใหญ่เคยถูกศาลสั่งปรับมูลค่ากว่าร้อยล้านเหรียญ จนทำให้ต้องมีการปรับกลไกในการขอความยินยอมจากผู้ใช้งาน (Consent) เช่นเดียวกับเว็บไซต์อื่น ๆ ที่เข้าชมจากสหภาพยุโรป

อ.ปริญญา ยังเล่าเพิ่มเติมว่า เริ่มมีบางประเทศที่ออกกฎหมายเพื่อกำกับดูแลการใช้งานเทคโนโลยี AI ด้วยเช่นกัน เช่น กฎหมายกำกับดูแล AI ของสหภาพยุโรป (EU AI Act) NIST AI RMF (Risk Management Framework) และ OECD AI Principles

คำถามต่อมาที่น่าสนใจ คือ แล้วเราจะทำอย่างไรได้บ้าง เพื่อให้เกิด Responsible Tech ?

อ.ปริญญา แชร์มุมมองของการสร้าง Responsible Tech เป็น 3 กลุ่มหลัก เริ่มจากกลุ่มผู้พัฒนาเทคโนโลยีต่าง ๆ ที่ต้องออกแบบและพัฒนาเทคโนโลยี โดยมีการควบคุมและตรวจสอบผลกระทบตั้งแต่ต้นน้ำจนถึงปลายน้ำ ขณะที่ประชาชนผู้ใช้งานเทคโนโลยี ก็ต้องมีความรู้เท่าทัน มีความเข้าใจและทักษะการใช้เทคโนโลยีที่ปลอดภัย และตรวจสอบการใช้งาน เช่น การตั้งค่าความเป็นส่วนตัว การตั้งค่าเกี่ยวกับตำแหน่ง (Location Service) หรือแม้กระทั่งการติดตั้งแอปพลิเคชั่น เพื่อป้องกันความเสี่ยงจากการเข้าถึงข้อมูลส่วนตัว

อีกส่วนสำคัญคือ ภาครัฐและหน่วยงานต่าง ๆ ต้องออกกฎหมาย กฎระเบียบ และนโยบายเพื่อป้องปราม ไม่ให้บริษัทเทคโนโลยีแสวงหาประโยชน์จากข้อมูลของผู้ใช้มากเกินไป รวมถึงมีหน่วยงานกำกับดูแลที่เข้มแข็ง ซึ่งปัจจุบันมีหน่วยงานที่กำกับดูแลเกี่ยวกับภัยไซเบอร์ แฮ็กเกอร์ และข้อมูลรั่วไหลอยู่แล้ว แต่ยังขาดหน่วยงานที่กำกับดูแลการดำเนินธุรกิจของบริษัทเทคโนโลยีไม่ให้แสวงหาประโยชน์จากข้อมูลของผู้ใช้

นอกจากนี้ อ.ปริญญา ยังพูดถึงข้อเสนอเชิงนโยบาย ซึ่งเป็นสิ่งที่ อ.ปริญญา พยายามผลักดันและนำเสนอต่อภาครัฐมาเป็นระยะเวลานานแล้ว โดยเสนอให้มีการตั้งหน่วยงานที่ทำหน้าที่คล้ายกับ สสส. (สำนักงานกองทุนสนับสนุนการสร้างเสริมสุขภาพ) ในการส่งเสริมและสร้างความรู้ ความเข้าใจในการใช้งานเทคโนโลยีและแพลตฟอร์มต่าง ๆ อย่างปลอดภัย ซึ่งที่ผ่านมาภาครัฐยังไม่มีหน่วยงานที่ทำหน้าที่ในการประชาสัมพันธ์หรือส่งเสริมความรู้เท่าทันอย่างชัดเจน

สติและความรับผิดชอบ

เมื่อเทคโนโลยี กลายเป็นส่วนหนึ่งของชีวิตผู้คน และอาจกลายเป็นเนื้อเดียวกันกับการใช้ชีวิตของมนุษย์ คนรุ่นใหม่ จึงกลายเป็นหนึ่งในส่วนสำคัญของการสร้างและพัฒนาเทคโนโลยี รวมถึงเป็นส่วนหนึ่งในการสร้างเทคโนโลยีที่มีความรับผิดชอบต่อผู้คนด้วย

จิณต์ธญา โภคาวสิทธิ์วรกุล Business Analyst, CPF ventures หนึ่งในคนรุ่นใหม่ของเครือเจริญโภคภัณฑ์ที่จะเข้าร่วมการประชุมผู้นำโลก One Young World 2025 แชร์ความเข้าใจและมุมมองเกี่ยวกับสิ่งที่เรียกว่า Responsible Tech ในหลากหลายประเด็น

จิณต์ธญา มองว่า Responsible Tech คือ การสร้างเทคโนโลยีด้วยความรับผิดชอบต่อชีวิตผู้คน และสร้างขึ้นอย่างมีความปลอดภัย เป็นมิตร เข้าใจง่าย เข้าถึงคนทุกวัย และช่วยยกระดับคุณภาพชีวิตได้จริง

ส่วนมุมเทคโนโลยีที่ขาดความรับผิดชอบ จิณต์ธญา ยกตัวอย่างเคสที่พบเห็นไว้หลายประเด็น ทั้งเรื่องภาพ-คลิปวิดีโอปลอมเกี่ยวกับสถานการณ์ในพื้นที่ชายแดนไทย-กัมพูชา ซึ่งสะท้อนให้เห็นถึงความเข้าใจและรู้เท่าทันเกี่ยวกับเทคโนโลยี AI หรือกรณีของการใช้เทคโนโลยี โดยเฉพาะเทคโนโลยีเกษตร ซึ่งต้องพึ่งพาสตาร์ตอัพต่างประเทศ มากกว่าสตาร์ตอัพไทย ทำให้ข้อมูลที่เก็บรวบรวมไม่ได้อยู่ภายใต้การควบคุมของบริษัทหรือประเทศเพียงอย่างเดียว และทำให้เกิดความไม่ชัดเจนว่าใครคือเจ้าของข้อมูลที่แท้จริงกันแน่

หรือบางครั้ง ข้อมูลของผู้ใช้ ถูกนำไปใช้เพื่อวัตถุประสงค์ในทางการตลาดและการค้า เช่น การขายข้อมูลต่อให้กับบริษัทอื่น ๆ หรือนำข้อมูลมาใช้เพื่อวางแผนเจาะตลาด

เมื่อเทคโนโลยี เป็นดาบสองคมในการใช้งาน เป็นได้ทั้งประโยชน์และโทษทั้งกับผู้ใช้และสังคม แล้วถ้าจะออกแบบกติกาเทคโนโลยีใหม่ เพื่อนำไปสู่โลกที่ดีขึ้น จะทำอย่างไร ?

จิณต์ธญา แชร์ไอเดียว่า เทคโนโลยีใหม่ ๆ ที่จะถูกนำมาใช้ ควรมีขั้นตอนหรือกระบวนการในการทำความเข้าใจเทคโนโลยีนั้น ๆ ก่อนใช้งานจริง ดังเช่นที่ฟินแลนด์ มีการสอนเรื่อง AI Literacy ให้กับประชาชนเพื่อสร้างความเข้าใจพื้นฐานเกี่ยวกับการใช้ AI และสามารถรู้เท่าทันสื่อต่าง ๆ ที่ถูกสร้างด้วยเครื่องมือ AI

ขณะเดียวกัน เป็นการช่วยลดกำแพงความเหลื่อมล้ำทางดิจิทัล ที่ส่วนมากกลุ่มผู้สูงวัยหรือผู้ที่ไม่มีความรู้หรือทักษะการใช้เทคโนโลยี มักรู้สึกว่ายาก ไม่เข้าใจ และทำให้กลุ่มเหล่านี้เลือกจะไม่ใช้เทคโนโลยี เช่น กลุ่มเกษตรกร ที่มักจะใช้วิธีการติดต่อผู้คนหรือทีมเพื่อจ้างมาทำสวนหรือจัดการเกี่ยวกับการฆ่าแมลง ศัตรูพืชต่าง ๆ แทนที่การใช้เทคโนโลยีซึ่งช่วยวางแผนการทำงานขั้นตอนต่าง ๆ ได้สะดวกขึ้น และเมื่อเกษตรกรรู้สึกว่าเรื่องเหล่านี้เป็นเรื่องยาก ก็จะทำให้ไม่อยากใช้งาน

จะเห็นได้ว่า เรื่อง Responsible Tech เป็นสิ่งที่ไม่ได้อยู่ไกลจากทุก ๆ คน และเป็นเรื่องที่ทุกคนอาจใช้เทคโนโลยีต่าง ๆ ด้วยความเคยชิน แต่อาจหลงลืมการใช้งานที่จะทำให้ปลอดภัย คำถามสำคัญคือ ความรับผิดชอบทางเทคโนโลยี ควรเริ่มจากตรงไหน ?

จินต์ธญา มองว่า ต้องอาศัยความร่วมมือจากทุกระดับในสังคม เริ่มต้นจากระดับองค์กรที่ต้องคิดถึงผลกระทบที่แท้จริงของเทคโนโลยีต่อผู้คน ไม่ใช่เพียงแค่ตัวเลขหรือผลลัพธ์ทางธุรกิจ ส่วนผู้พัฒนาเทคโนโลยี ก็ต้องออกแบบและพัฒนาโดยคิดให้รอบด้าน คำนึงถึงผู้ใช้งานที่หลากหลาย และต้องมีกระบวนการตรวจสอบ เช่น มีตำแหน่ง CISO (Chief Information Security Officer) เพื่อดูแลด้านความปลอดภัยไซเบอร์ และมุมของผู้ใช้งาน อยากให้เปิดใจเรียนรู้ และใช้งานอย่างมีสติ

ท้ายที่สุด ทุกภาคส่วนต้องร่วมมือกันเพื่อให้เทคโนโลยีเป็นสิ่งที่อยู่ร่วมกับผู้คนแล้วง่ายขึ้น และเข้าใจได้มากขึ้น

นอกจากในมุมของคนที่อยู่กับเทคโนโลยีแล้ว จิณต์ธญา มีอีกหนึ่งบทบาทคือการเป็นตัวแทนคนรุ่นใหม่ของเครือเจริญโภคภัณฑ์ เข้าร่วมการประชุมผู้นำโลก One Young World Summit 2025 ณ เมืองมิวนิก ประเทศเยอรมนี ซึ่งจะมีคนรุ่นใหม่ อายุประมาณ 18-30 ปี และมีโปรเจ็กต์ต่าง ๆ แตกต่างไปตามความสนใจของแต่ละคน

จิณต์ธญา เล่าว่า ส่วนตัวมีโปรเจ็กต์ที่ทำเกี่ยวกับ AI และ Digital Transformation ด้วยเช่นกัน เช่น การใช้ AI สร้างกล้องวัดน้ำหนักหมู เพื่อแก้ปัญหาการชั่งน้ำหนักหมู (หนักถึง 130 กก.) ซึ่งเดิมต้องใช้แรงงานคนจำนวนมาก สร้างความเครียดให้สัตว์ และส่งผลต่อคุณภาพเนื้อสัตว์ โดยเทคโนโลยีนี้ช่วยให้การทำงานง่ายขึ้น ลดต้นทุน และดีต่อสวัสดิภาพสัตว์

อีกหนึ่งเทคโนโลยี คือ AI ดาวเทียมวิเคราะห์พื้นที่เพาะปลูกข้าวโพด ซึ่งจะช่วยให้เกษตรกรเข้าใจสภาพดิน น้ำ และสิ่งแวดล้อมในพื้นที่ขนาดใหญ่ได้อย่างทั่วถึง สามารถวางแผนการผลิตและเข้าจัดการเหตุฉุกเฉินได้ทันท่วงที ซึ่งต่างจากเดิมที่อาศัยการเดินสำรวจ และอาจทำให้สำรวจได้ไม่ทั่วถึง

จินต์ธญา ยังเล่าเพิ่มเติมว่า เทคโนโลยีที่ดีต้องเป็นแบบ Responsible Tech คือเทคโนโลยีที่ “เติบโตไปพร้อมกับความเข้าใจของคน” เพราะทุกวันนี้หลายคนกลัวว่าเทคโนโลยีจะมาแทนเขา แต่จริง ๆ แล้วคือการทำให้คนทำงานร่วมกับเทคโนโลยีได้ดีขึ้น เพิ่มประสิทธิภาพ และช่วยให้กล้าใช้เทคโนโลยีมากขึ้น

“สิ่งสำคัญคืออยากให้คนรู้ว่า เทคโนโลยีมันดีต่อชีวิตเขาจริง ๆ และอยากให้เข้าใจด้วยว่า การที่เรานำเทคโนโลยีมาใช้ในชุมชนหรือในฟาร์ม มันผ่านการคิดและออกแบบมาอย่างปลอดภัยแล้ว ก่อนที่จะให้เขาได้ใช้จริง ๆ” จิณต์ธญา กล่าว

อ่านข่าวต้นฉบับได้ที่ : “Responsible Tech” เมื่อเทคโนโลยี(ที่ดี) ไม่ใช่แค่ทำกำไร แต่ต้องดูแลชีวิตผู้คน

ติดตามข่าวล่าสุดได้ทุกวัน ที่นี่
– Website : https://www.prachachat.net

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...