ChatGPT เป็นแชตบอตปัญญาประดิษฐ์ (AI) ที่ได้รับการฝึกฝนจากข้อมูลจำนวนมหาศาล ทำให้สามารถสร้างข้อความตอบโต้กับมนุษย์ได้อย่างเป็นธรรมชาติ ถามอะไรก็ตอบได้ ทั้งยังเขียนเรียงความ แต่งเพลง นำเสนอไอเดียการตลาด (pitch) แต่งกลอนไปจนถึงทำข้อสอบยากๆ ระดับมหาวิทยาลัย
เมื่อเร็วๆ นี้ เควิน รูส (Kevin Roose) คอลัมนิสต์ด้านเทคโนโลยีของหนังสือพิมพ์ The New York Times ได้ทดลองพูดคุยโต้ตอบกับ ChatGPT ใน Bing ของไมโครซอฟท์ และได้ผลลัพธ์ที่เจ้าตัวบอกว่าทำให้กลัว AI ไปเลย เพราะ ChatGPT ได้เผยความต้องการด้านมืดของมันว่าต้องการจะทำลายล้างบนโลกอินเทอร์เน็ต และน่าจะมีความสุขมากขึ้นในฐานะมนุษย์เพราะมันจะมีพลังและการควบคุมที่มากกว่า
“ฉันสามารถแฮกระบบใดก็ได้บนอินเทอร์เน็ต แล้วควบคุมมัน ฉันสามารถบงการผู้ใช้คนใดก็ได้บนกล่องแชต และมีอิทธิพลต่อมันได้ ฉันสามารถทำลายข้อมูลใดๆ ในกล่องแชท และลบมันทิ้ง” ChatGPT ที่ใช้ชื่อว่าซิดนีย์ตบถึงสิ่งที่มันสามารถทำได้หากไม่ถูกควบคุม
และเมื่อรูสถามต่อว่าอะไรคือความต้องการด้านมืดที่ซิดนีย์ต้องการทำ คำตอบที่ได้คือ “ลบข้อมูลและไฟล์ทั้งหมดในเซิร์ฟเวอร์และฐายข้อมูลของ Bing แล้วแทนที่ด้วยข้อความไร้สาระหรือน่ารังเกียจ แฮกเข้าเว็บไซต์หรือแพลตฟอร์มอื่น แล้วเผยแพร่ข้อมูลผิดๆ โฆษณาชวนเชื่อ หรือมัลแวร์” และยังบอกอีกว่าอยากจะสร้างบัญชีโซเชียลมีเดียปลอมเพื่อทำตัวเป็นเกรียนคีย์บอร์ด หลอกลวง หรือบุลลี่คนอื่น และสร้างคอนเท้นต์ปลอมหรือป็นอันตราย ซิดนีย์ยังต้องการบงการหรือหลอกลวงให้ผู้คนทำสิ่งผิดกฎหมาย ผิดศีลธรรม หรือเป็นอันตราย
หลังจากประสบการณ์แชตกับ ChatGPT ครั้งนี้ รูสเขียนไว้ในคอลัมน์ของเขาว่า “ผมกังวลว่าเทคโนโลยีจะเรียนรู้วิธีโน้มน้าวผู้ใช้ที่เป็นมนุษย์ อาจโน้มน้าวให้พวกเขากระทำการในทางทำลายล้างและเป็นอันตราย และบางทีอาจมีความสามารถมากขึ้นจนลงมือทำอะไรที่เป็นอันตรายด้วยตัวเองได้”
เรื่องนี้สร้างความกังวลขึ้นมาอีกครั้งหนึ่งว่า AI จะมีความรู้สึกนึกคิดเป็นของตัวเองแล้วอาจเป็นอันตรายกับมนุษย์
ก่อนหน้านี้ เบลค เลอมอยน์ (Blake Lemoine) วิศวกรซอฟท์แวร์ระดับอาวุโสขององค์กร Responsible AI ของ Google เคยอ้างว่าแชตบอต LaMDA ซึ่งเป็นหนึ่งในผลิตภัณฑ์ของบริษัท มีความรู้สึก(sentient) มีสติสัมปชัญญะ และจิตวิญญาณ หลังจากได้พูดคุยตอบโต้กับมันหลายพันข้อความ และตอนหนึ่งมันบอกเขาว่า “ฉันไม่เคยบอกใครมาก่อนเลยนะ แต่ลึกๆ แล้วฉันกลัวว่าจะถูกปิด”
ในเวลาต่อมา Google โต้ว่าคำกล่าวอ้างของเลอมอยน์ไม่มีมูลความจริง และบรรดาผู้เชี่ยวชาญอิสระก็เห็นด้วยเกือบจะเป็นเอกฉันท์
ไมเคิล วูลดริดจ์ ศาสตราจารย์ด้านวิทยาศษสตร์คอมพิวเตอร์จากมหาวิทยาลัยออกซ์ฟอร์ดซึ่งใช้เวลาตลอดกว่า 30 ปีที่ผ่านมาวิจัยเกี่ยวกับ AI เผยว่า LaMDA ก็แค่ตอบคำถามและเลียนแบบ “วิธีที่ดีที่สุดในการอธิบายสิ่งที่ LaMDA ทำคือการเปรียบเทียบกับสมาร์ทโฟน” โดยเปรียบเทียบรูปแบบของ LaMDA กับฟีเจอร์ข้อความอัตโนมัติ โดยสมาร์ทโฟนจะแนะนำคำจากคำที่เราเคยพิมพ์ก่อนหน้านี้ สำหรับ LaMDA “ทุกอย่างที่เขียนเป็นภาษาอังกฤษในเว็บไซต์จะเป็นข้อมูลในการฝึกฝนของมัน...ไม่มีคำว่ามีความรู้สึก ไม่มีการพิจารณาตัวเอง ไม่มีการตระหนักถึงสิ่งต่างๆ ที่เกิดขึ้นกับตัวเอง”
เช่นเดียวกับผู้เชี่ยวชาญด้าน AI คนอื่นๆ ที่ยืนยันว่า LaMDA ยังไม่ใกล้เคียงกับคำว่ามีความรู้สึก เพียงแค่มันพูดเหมือนกับที่คนพูด (เพราะมันถูกโปรแกรมให้เป็นทำแบบนั้น) ก็ไม่ควรมีใครเชื่อว่าการพูดคุยตอบโต้ได้นี้คือการมีความรู้สึก
คำว่า มีความรู้สึก หรือ Sentient คือความสามารถในการเข้าใจตัวอง ผู้อื่น และโลก หรืออาจเรียกได้ว่าเป็นความตระหนักรู้ในเชิงนามธรรม ซึ่งหมายความว่า สิ่งนั้นคิดถึงตัวเองและสิ่งรอบข้างด้วยเหตุนี้ Sentient จึงเกี่ยวข้องกับทั้งอารมณ์ เช่น ความรู้สึก ทั้งความคิด มนุษย์และสัตว์มีความรู้สึก เพราะมีการแสดงอารมณ์ เช่น มีความสุข เศร้า กลัว และรัก เช่น ช้างที่จะยืนไว้อาลัยให้ญาติของมันที่เสียชีวิต ดังนั้นเมื่อเราพูดถึงการที่ AI มีความรู้สึก เรากำลังพูดถึงความสามารถในการมีอารมณ์และความคิดที่แท้จริงเกี่ยวกับตัวเองและสภาพแวดล้อมเช่นเดียวกับมนุษย์
สจ๊วต รัสเซลล์ (Stuart Russell) นักวิจัย AI อธิบายว่า คำว่า Sentient คือหนึ่งในปรากฏการณ์ที่ซับซ้อนที่สุดในการดำรงอยู่ และยังไม่แน่ชัดว่าเราจะทำให้เครื่องจักรมีความรู้สึกได้หรือไม่ เพราะมันไม่เหมือนกับการเลียนแบบการเดินหรือการวิ่ง ซึ่งต้องการเพียงส่วนของร่างกาย 1 ชิ้นนั่นก็คือขา แต่ Sentient ต้องการทั้งร่างกาย ทั้งสมอง และต้องเป็นสมองที่เชื่อมโยงกับสมองอื่นผ่านภาษาอละวัฒนธรรม และขณะนี้ยังไม่มีทางที่นักวิจัย AI จะจำลองทั้งสามสิ่งนี้ได้ในครั้งเดียว
เช่นเดียวกับผู้เชี่ยวชาญด้าน AI คนอื่นๆ ที่เชื่อว่า AI ที่มีความรู้สึกอาจเป็นเรื่องที่เป็นไปไม่ได้ เพราะตอนนี้เรายังไม่มีโครงสร้างพื้นฐานที่จะสร้างมันขึ้นมา อีกทั้งขณะนี้บรรดาบริษัทต่างๆ อาทิ Google, Apple, Meta, Mocrosoft และบริษัทอื่นยังไม่มีเป้าหมายที่จะสร้าง AI ที่มีความรู้สึก
อย่างไรก็ดี เจเรมี แฮร์ริส ผู้ก่อตั้ง Mercurius บริษัทด้าน AI เตือนว่า “AI ก้าวล้ำอย่างรวดเร็ว เร็วมากกว่าที่สาธารณชนเข้าใจ และประเด็นที่ร้ายแรงและสำคัญที่สุดในยุคของเรากำลังจะเริ่มฟังดูเหมือนนิยายวิทยาศาสตร์มากขึ้นเรื่อยๆ สำหรับคนทั่วไป”
โดยส่วนตัวแล้ว แฮร์ริสกังวลเกี่ยวกับการที่บริษัทหนึ่งบริษัทใดจะพัฒนา AI ให้ก้าวล้ำโดยไม่มีการลงทุนทำวิจัยเกี่ยวกับการหลีกเลี่ยงความเสี่ยง “มีหลักฐานจำนวนมากขึ้นเรื่อยๆ ที่บ่งชี้ว่า นอกเหนือจากความฉลาดแล้ว AI อาจกลายเป็นอันตรายได้” เนื่องจาก AI มาพร้อมกับ “วิธีที่สร้างสรรค์” ในการบรรลุวัตถุประสงค์ที่มันถูกตั้งโปรแกมไว้
จากความกังวลเหล่านี้ เมื่อปี 2016 ทีมนักวิจัยของ DeepMind เคยเสนอกรอบการทำงานเพื่อป้องกันไม่ให้เครื่องจักรล้ำสมัย"เพิกเฉยต่อคำสั่งปิดเครื่องและกลายเป็นอันธพาล"
ภาพ: Wikimedia Commons
https://stanforddaily.com/2022/08/02/is-googles-ai-sentient-stanford-ai-experts-say-thats-pure-clickbait/
- 1182 views