โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

รู้จัก Amanda Askell นักปรัชญาที่ Anthropic จ้างมาเพื่อออกแบบรัฐธรรมนูญให้ AI

VoiceTV

อัพเดต 18 มี.ค. เวลา 06.02 น. • เผยแพร่ 15 มี.ค. เวลา 13.01 น. • กองบรรณาธิการวอยซ์ออนไลน์

หากพูดถึง AI คิดไวๆ คนน่าจะนึกถึงอาชีพโปรแกรมเมอร์ วิศวกร หรือนักคณิตศาสตร์ แต่ที่บริษัท AI อย่าง Anthrophic เจ้าของ Claude ที่ยอดดาวน์โหลดพุ่งเกินต้านเพราะบ้าน OpenAI อย่าง ChatGPT ของ Sam Altman เพิ่งสะดุดขาตัวเองเมื่อปลายเดือนกุมภาพันธ์ที่ผ่านมา จ้าง ‘นักปรัชญา’ ไว้เพื่อสอน AI

ย้อนกลับไปที่เรื่อง OpenAI สะดุดขาตัวเองสักหน่อย ต้นเรื่องก็สืบเนื่องมาจากหลังการเจรจาระหว่างกระทรวงกลาโหมสหรัฐฯ และ Anthrophic ล้มเหลว โดยฝั่งรัฐต้องการให้ Anthrophic ลบเงื่อนไขสำคัญออกจากสัญญา นั่นก็คือการห้ามใช้ AI สอดส่องประชาชนในประเทศ และการห้ามใช้ AI ควบคุมอาวุธอัตโนมัติเต็มรูปแบบ แต่ Anthrophic ไม่ยอม Donald Trump จึงออกคำสั่งให้ทุกหน่วยงานหยุดใช้ AI จาก Anthrophic โดยอ้างว่าเป็น AI ที่ก้าวหน้าเกินไป

แต่แล้วจังหวะนรกก็เกิดขึ้นเพราะเพียงไม่กี่ชั่วโมงหลังจากนั้น OpenAI ประกาศทำข้อตกลงกับกระทรวงกลาโหมสหรัฐ และวันถัดมาอเมริกาก็โจมตีอิหร่าน ซึ่งถือว่าเป็นจังหวะตัดสินใจที่ผิดพลาดและน่าตั้งคำถามต่อ OpenAI

เหตุการณ์ข้างต้นส่งผลให้พนักงานกว่า 500 คน จาก OpenAI และ Google ร่วมลงชื่อในจดหมายเปิดผนึกสนับสนุน Anthropic และหลักการปฏิเสธสัญญาดังกล่าว หลังเหตุการณ์นี้คนจึงหันมาสนับสนุน Claude ของ Anthrophic มากขึ้น

กลับมาที่ตำแหน่งนักปรัชญาที่ Anthrophic จ้าง เธอชื่อ Amanda Askell อแมนดารู้ตัวตั้งแต่อายุ 14 ว่าอยากสอนปรัชญา แต่ไม่เคยรู้เลยว่าวันหนึ่งตัวเองต้องมาสอนปรัชญาให้นักเรียนที่เป็น AI ชื่อ Claude เธอไม่เพียงมีหน้าที่สอนให้ AI ตอบคำถามเก่ง แต่ยังสอนให้ AI ต้องประพฤติตัวอย่างมีความรับผิดชอบ

งานของอแมนดาคือการช่วยออกแบบกรอบความคิดที่กำหนดว่า AI ควรตอบคำถามอย่างไร เมื่อเผชิญกับประเด็นที่ซับซ้อน อ่อนไหว หรือมีผลต่อผู้คนจริงๆ หรือพูดง่ายๆ ว่าเธอกำลังช่วยออกแบบ ‘บุคลิกทางศีลธรรม’ ของ AI

หนึ่งในผลงานสำคัญของอแมนดาคือการช่วยพัฒนาแนวคิด Constitutional AI หรือเรียกได้ว่าเป็น ‘รัฐธรรมนูญ’ ของ AI แทนที่จะให้มนุษย์คอยตรวจสอบทุกคำตอบ ระบบจะถูกฝึกให้ใช้หลักการบางอย่างในการประเมินคำตอบด้วยตัวเอง โดยหลักการเหล่านั้นรวมไปถึงความปลอดภัยของผู้ใช้ การหลีกเลี่ยงการช่วยเหลือในสิ่งที่ผิดกฎหมายหรือเป็นอันตราย ความโปร่งใสเมื่อ AI ไม่แน่ใจ และการไม่เลือกปฏิบัติ ภายใน Anthrophic เอง บางทีเรียกเอกสารนี้แบบไม่เป็นทางการว่ากรอบจริยธรรมของระบบ

ก่อนเข้าสู่วงการเทคโนโลยีอแมนดาเป็นนักปรัชญาในแวดวงวิชาการ งานวิจัยของเธอเกี่ยวกับจริยศาสตร์ ทฤษฎีการตัดสินใจ และเหตุผลเชิงตรรกะ ซึ่งได้กลายมาเป็นคำถามสำคัญในยุค AI อย่างไม่คาดคิด

อแมนดาเข้าร่วม Anthropic ในปี 2021 ปีเดียวกับที่บริษัทก่อตั้งโดยอดีตนักวิจัยจาก OpenAI แนวคิดของบริษัทนี้คือหาก AI จะมีบทบาทมากขึ้นในชีวิตมนุษย์ การพัฒนาเทคโนโลยีเพียงอย่างเดียวอาจไม่เพียงพอ คำถามสำคัญคือ AI ควรคิดอย่างไรเกี่ยวกับความผิดความชอบ เธอจึงได้ทำงานในสาขาที่เรียกว่า personality alignment ที่พยายามกำหนดว่า AI ควรสื่อสารและใช้เหตุผลอย่างไร

แทนที่จะตั้งกฎแข็งๆ แบบโปรแกรมคอมพิวเตอร์ ทีมของเธอพยายามฝึกให้โมเดลพัฒนาแนวโน้มบางอย่างเช่น ซื่อสัตย์ต่อข้อมูล เปิดกว้างและอยากรู้อยากเห็น ระมัดระวังต่อประเด็นอ่อนไหว และเคารพการตัดสินใจของมนุษย์ โดยมีเป้าหมายคือทำให้ AI เป็นผู้ช่วยที่รับผิดชอบต่อหน้าที่ มากกว่าจะเป็นระบบที่ให้คำตอบแบบทั่วไปไร้บริบท

สำหรับอแมนดา การสร้าง AI ที่ดีไม่ใช่การกำหนดกฎตายตัว แต่คือการทำให้ระบบสามารถ ชั่งน้ำหนักเหตุผลหลายด้าน และอธิบายได้ว่าทำไมจึงตอบแบบนั้น และเธอได้ทำให้อาชีพ ‘นักปรัชญา’ กลายมาเป็นตัวอย่างของอาชีพใหม่ในโลก AI ใช่, อาชีพและสาขาวิชาที่ไม่ได้รับความสำคัญในมหาวิทยาลัยหลายแห่ง แต่กลับมีบทบาทอย่างมากต่ออุตสาหกรรมเทคโนโลยี

อ้างอิงข้อมูลจาก

https://www.wsj.com/tech/ai/anthropic-amanda-askell-philosopher-ai-3c031883

https://timesofindia.indiatimes.com/etimes/trending/meet-amanda-askell-the-philosopher-hired-by-anthropic-to-teach-ai-how-to-behave-well/articleshow/129235882.cms

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...