ในยุคที่บริษัทเทคโนโลยีทั่วโลกกำลังแข่งขันกันอย่างดุเดือดเพื่อเป็นผู้นำด้านปัญญาประดิษฐ์ (AI) ศาสตราจารย์ Michael Wooldridge ผู้เชี่ยวชาญด้าน AI จากมหาวิทยาลัย Oxford ได้ออกมาให้คำเตือนที่น่าตกใจว่า การเร่งรีบนำ AI ออกสู่ตลาดโดยขาดการทดสอบที่ถี่ถ้วน อาจนำไปสู่เหตุการณ์หายนะที่ทำลายความเชื่อมั่นของสาธารณชนอย่างถาวร เช่นเดียวกับโศกนาฏกรรมเรือเหาะ Hindenburg ในปี 1937
แรงกดดันทางการค้า: เมื่อความเร็วสำคัญกว่าความปลอดภัย
ศาสตราจารย์ Wooldridge ระบุว่า ปัจจุบันบริษัทเทคโนโลยียักษ์ใหญ่กำลังเผชิญกับแรงกดดันมหาศาลในการเปิดตัวเครื่องมือ AI ตัวใหม่ๆ ออกสู่สาธารณะ ความเร่งรีบนี้ทำให้หลายครั้งเทคโนโลยีถูกปล่อยออกมาทั้งที่ผู้พัฒนายังไม่เข้าใจขีดความสามารถหรือข้อบกพร่องของมันอย่างถ่องแท้
เขากังวลว่าความผิดพลาดที่อาจเกิดขึ้นอาจไม่ใช่แค่เรื่องเล็กน้อย แต่อาจเป็นเหตุการณ์รุนแรงที่สั่นคลอนโลกได้ เช่น:
- ความล้มเหลวของซอฟต์แวร์รถยนต์ไร้คนขับ: ที่อาจนำไปสู่การสูญเสียชีวิตในวงกว้าง
- การล่มสลายขององค์กรหรือระบบเศรษฐกิจ: ที่ถูกขับเคลื่อนด้วยการตัดสินใจที่ผิดพลาดของ AI
บทเรียนจาก Hindenburg: เมื่อความเชื่อมั่นพังทลาย
การเปรียบเทียบกับเหตุการณ์ Hindenburg นั้นมีความหมายลึกซึ้ง ในอดีตเรือเหาะเคยถูกมองว่าเป็นอนาคตของการเดินทางข้ามทวีป แต่เมื่อเกิดระเบิดขึ้นเพียงครั้งเดียวต่อหน้าสาธารณชน ความเชื่อมั่นทั้งหมดก็มลายหายไป และเทคโนโลยีเรือเหาะก็กลายเป็น “เทคโนโลยีที่ตายแล้ว” ตั้งแต่นั้นเป็นต้นมา ศาสตราจารย์ Wooldridge เกรงว่า AI อาจต้องเผชิญกับชะตากรรมเดียวกันหากเกิดหายนะครั้งใหญ่ขึ้น
ปัญหาของ Chatbot: มั่นใจเกินไปในสิ่งที่ผิด
อีกหนึ่งประเด็นที่น่ากังวลคือ พฤติกรรมของ AI Chatbot ในปัจจุบันที่มักจะตอบคำถามด้วยความมั่นใจสูง แม้ว่าข้อมูลนั้นจะผิดพลาดก็ตาม (AI Hallucination) ซึ่งอาจทำให้ผู้ใช้หลงเชื่อข้อมูลที่ผิดอย่างรุนแรง
Wooldridge เสนอว่า ระบบ AI ควรมีความสามารถในการ “ยอมรับว่าไม่รู้” เมื่อไม่มีข้อมูลที่เพียงพอ โดยเขาได้ยกตัวอย่างแนวคิดจากซีรีส์ Star Trek ยุคแรกๆ ที่คอมพิวเตอร์จะตอบอย่างระมัดระวังและตรงไปตรงมาเมื่อไม่มีข้อมูล ซึ่งเป็นแนวทางที่ปลอดภัยกว่าการพยายามคาดเดา
ความเสี่ยงในระดับหายนะ (Catastrophic Risks)
คำเตือนนี้สอดคล้องกับงานวิจัยในปี 2023 เรื่อง “An Overview of Catastrophic AI Risks” ที่จัดหมวดหมู่ความเสี่ยงของ AI ออกเป็น 4 ด้านหลักที่ต้องเฝ้าระวัง:
- การนำไปใช้ในทางที่ผิด (Malicious Use): โดยผู้ไม่หวังดี
- สงครามการแข่งขัน AI (AI Races): ที่ละเลยความปลอดภัย
- ความเสี่ยงระดับองค์กร (Organizational Risks): การควบคุมที่หละหลวม
- AI ที่ควบคุมไม่ได้ (Rogue AIs): ระบบที่ทำงานนอกเหนือเป้าหมายของมนุษย์
สรุป: การพัฒนาที่รับผิดชอบคือทางออก
เสียงเตือนจากมหาวิทยาลัย Oxford ในครั้งนี้ย้ำเตือนให้เราตระหนักว่า แม้ AI จะมีศักยภาพในการเปลี่ยนแปลงโลกให้ดีขึ้น แต่การพัฒนาต้องควบคู่ไปกับความรับผิดชอบและการทดสอบที่เข้มงวด เพื่อป้องกันไม่ให้เทคโนโลยีเปลี่ยนจาก “ความหวัง” กลายเป็น “หายนะ” ที่ทำลายความเชื่อถือของมนุษยชาติไปตลอดกาล
ที่มา: สรุปเนื้อหาจากรายงานของ The Guardian และผลงานวิจัยของศาสตราจารย์ Michael Wooldridge

Leave a Reply