อัลฟาเบต (Alphabet) บริษัทแม่ของกูเกิล (Google) ได้อัปเดตหลักการที่กำกับการใช้ปัญญาประดิษฐ์ หรือเอไอ (AI) ของกูเกิล โดยลบเนื้อหาส่วนที่ระบุว่าจะไม่ใช้เอไอในกรณีที่ “มีแนวโน้มที่จะก่อให้เกิดความเสียหาย” ออกไป
ก่อนการอัปเดต อัลฟาเบตได้ระบุถึงการใช้งานต่าง ๆ ที่บริษัทจะไม่ทำ หนึ่งในหมวดหมู่นั้นคือ เทคโนโลยีที่เกี่ยวข้องกับอาวุธหรืออุปกรณ์ที่ออกแบบมาเพื่อทำร้ายผู้คน ขณะที่อีกหมวดหมู่หนึ่งคือ การใช้เทคโนโลยีเพื่อสอดแนมเกินกว่ามาตรฐานสากล
นับตั้งแต่ OpenAI เปิดตัวแชตบอตปัญญาประดิษฐ์ ChatGPT ในปี 2022 การใช้งานและแข่งขันด้านเอไอก็ก้าวไปอย่างรวดเร็ว แต่กฎหมายและระเบียบข้อบังคับด้านความโปร่งใสและจริยธรรมของเอไอยังคงล้าหลัง และขณะนี้ดูเหมือนว่ากูเกิลได้ผ่อนปรนข้อจำกัดที่กำหนดขึ้นเอง
อย่างไรก็ตาม เจมส์ มันยิกา รองประธานอาวุโสของกูเกิล และเดมิส ฮัสซาบิส หัวหน้าห้องปฏิบัติการวิจัยด้านเอไออย่าง Google DeepMind ได้ออกมาปกป้องการตัดสินใจดังกล่าว โดยอ้างว่า “ธุรกิจและรัฐบาลประชาธิปไตยต้องทำงานร่วมกันเพื่อพัฒนาเอไอที่สนับสนุนความมั่นคงของชาติ”
กูเกิลเผยแพร่หลักการด้านเอไอเป็นครั้งแรกในปี 2018 หลายปีก่อนที่เทคโนโลยีนี้จะแพร่หลาย ซึ่งการอัปเดตครั้งล่าสุดของกูเกิลถือเป็นการเปลี่ยนแปลงค่านิยมครั้งใหญ่จากหลักการเดิมที่เคยประกาศไว้
ในปี 2018 กูเกิลตัดสินใจถอนตัวจากการประมูลสัญญาการคำนวณผ่านระบบคลาวด์มูลค่า 10,000 ล้านดอลลาร์ของกระทรวงกลาโหมสหรัฐฯ โดยให้เหตุผลในขณะนั้นว่า “บริษัทไม่สามารถมั่นใจได้ว่าสัญญานี้จะสอดคล้องกับหลักการด้าน AI ของบริษัท”
ในปีเดียวกัน พนักงานกว่า 4,000 คน ได้ลงชื่อเรียกร้องให้กูเกิลออกนโยบายที่ชัดเจนว่า “กูเกิลและผู้รับเหมาของบริษัทจะไม่พัฒนาเทคโนโลยีที่ใช้ในสงคราม” โดยพนักงานสิบกว่าคนถึงกับลาออกเพื่อประท้วงการมีส่วนร่วมของบริษัทในโครงการดังกล่าว