spot_imgspot_img
spot_img
หน้าแรกNEWSTODAYบุคคลสาธารณะหลายร้อยคน รวมถึง Steve Wozniak ผู้ร่วมก่อตั้ง Apple และ Richard Branson จาก Virgin เรียกร้องให้มีการห้ามใช้...

บุคคลสาธารณะหลายร้อยคน รวมถึง Steve Wozniak ผู้ร่วมก่อตั้ง Apple และ Richard Branson จาก Virgin เรียกร้องให้มีการห้ามใช้ 'สติปัญญาขั้นสูง' ของ AI


Steve Wozniak ผู้ร่วมก่อตั้งบริษัทเทคโนโลยี Apple

โทมัส แบนเนเยอร์ | รูปภาพพันธมิตร | เก็ตตี้อิมเมจ

กลุ่มบุคคลสำคัญ รวมถึงผู้เชี่ยวชาญด้านปัญญาประดิษฐ์และเทคโนโลยี ได้เรียกร้องให้ยุติความพยายามในการสร้าง 'สติปัญญาขั้นสูง' ซึ่งเป็นรูปแบบหนึ่งของ AI ที่จะเหนือกว่ามนุษย์ในงานด้านการรับรู้ทั้งหมด

ผู้คนกว่า 850 คน รวมถึงผู้นำด้านเทคโนโลยีอย่าง Richard Branson ผู้ก่อตั้ง Virgin Group และ แอปเปิล Steve Wozniak ผู้ร่วมก่อตั้งได้ลงนามในแถลงการณ์ที่เผยแพร่เมื่อวันพุธ เรียกร้องให้มีการหยุดการพัฒนาสติปัญญาขั้นสูงชั่วคราว

รายชื่อผู้ลงนามได้รับการจัดอันดับโดยผู้บุกเบิก AI ที่มีชื่อเสียง ซึ่งรวมถึงนักวิทยาศาสตร์คอมพิวเตอร์ Yoshua Bengio และ Geoff Hinton ซึ่งได้รับการยอมรับอย่างกว้างขวางว่าเป็น “เจ้าพ่อ” ของ AI สมัยใหม่ นักวิจัยด้าน AI ชั้นนำอย่าง Stuart Russell จาก UC Berkeley ก็ลงนามด้วยเช่นกัน

สติปัญญาขั้นสูงกลายเป็นคำศัพท์ในโลก AI เนื่องจากบริษัทต่างๆ ตั้งแต่ xAI ของ Elon Musk ไปจนถึง OpenAI ของ Sam Altman แข่งขันกันเพื่อเปิดตัวโมเดลภาษาขนาดใหญ่ขั้นสูงเพิ่มเติม เมตา โดยเฉพาะอย่างยิ่งได้ตั้งชื่อแผนก LLM ว่า 'Meta Superintelligence Labs'

แต่ผู้ลงนามในแถลงการณ์ล่าสุดเตือนว่าแนวโน้มของสติปัญญาขั้นสูงได้ “ทำให้เกิดความกังวล ตั้งแต่ความล้าสมัยทางเศรษฐกิจของมนุษย์และการไร้อำนาจ การสูญเสียเสรีภาพ เสรีภาพของพลเมือง ศักดิ์ศรี และการควบคุม ไปจนถึงความเสี่ยงด้านความมั่นคงของชาติ และแม้กระทั่งการสูญพันธุ์ของมนุษย์”

เรียกร้องให้มีการห้ามการพัฒนาสติปัญญาขั้นสูงจนกว่าจะมีการสนับสนุนจากสาธารณะอย่างแข็งขันสำหรับเทคโนโลยีนี้และมีความเห็นเป็นเอกฉันท์ทางวิทยาศาสตร์ว่าสามารถสร้างและควบคุมได้อย่างปลอดภัย

นอกจาก AI และเทคโนโลยีแล้ว ชื่อที่อยู่เบื้องหลังคำแถลงดังกล่าวยังมาจากกลุ่มพันธมิตรที่กว้างขวาง ตั้งแต่นักวิชาการ สื่อมวลชน ผู้นำทางศาสนา และกลุ่มอดีตนักการเมืองและเจ้าหน้าที่ของสหรัฐฯ ซึ่งมีสองฝ่าย

เจ้าหน้าที่ที่เกษียณอายุแล้วเหล่านั้น ได้แก่ อดีตประธานคณะเสนาธิการร่วม ไมค์ มัลเลน และอดีตที่ปรึกษาความมั่นคงแห่งชาติ ซูซาน ไรซ์

ในขณะเดียวกัน Steve Bannon และ Glenn Beck ซึ่งเป็นพันธมิตรสื่อที่มีอิทธิพลของประธานาธิบดีโดนัลด์ ทรัมป์ของสหรัฐฯ ก็ได้รับเลือกให้อยู่ในรายชื่อนี้เช่นกัน

หัวหน้านักยุทธศาสตร์ของประธานาธิบดี Steve Bannon พูดระหว่างการประชุมสุดยอดเศรษฐกิจโลก Semafor ปี 2025 ที่ Conrad Washington เมื่อวันที่ 23 เมษายน 2025 ในกรุงวอชิงตัน ดี.ซี.

เคย์ล่า บาร์ตโคว์สกี้ | เก็ตตี้อิมเมจ

ผู้ลงนามที่มีชื่อเสียงอื่นๆ ได้แก่ เจ้าชายแฮร์รี สมาชิกราชวงศ์อังกฤษ และเมแกน ดัชเชสแห่งซัสเซ็กซ์ พระมเหสี และอดีตประธานาธิบดีแมรี โรบินสัน แห่งไอร์แลนด์ เมื่อวันพุธ รายการยังคงเพิ่มขึ้น

AI doomer กับ AI boomers

พื้นที่เทคโนโลยีมีการแบ่งแยกเพิ่มมากขึ้นระหว่างผู้ที่มองว่า AI เป็นพลังอันทรงพลังเพื่อความดี การรับประกันการพัฒนาอย่างอิสระ และผู้เชื่อว่าสิ่งนี้เป็นอันตรายและต้องการการควบคุมที่มากขึ้น

อย่างไรก็ตาม ตามที่ระบุไว้ในเว็บไซต์ที่ลงนามใน 'คำชี้แจงเกี่ยวกับสติปัญญาขั้นสูง' แม้แต่ผู้นำของบริษัทปัญญาประดิษฐ์ชั้นนำของโลก เช่น Musk และ Altman ก็ยังเคยเตือนเกี่ยวกับอันตรายของสติปัญญาขั้นสูงมาก่อน

ก่อนที่จะมาเป็น CEO ของ OpenAI อัลท์แมนเขียนไว้ในบล็อกโพสต์เมื่อปี 2558 ว่า “การพัฒนาสติปัญญาของเครื่องจักรเหนือมนุษย์ (SMI) อาจเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อการดำรงอยู่ของมนุษยชาติอย่างต่อเนื่อง”

ความแตกแยกครั้งใหญ่ระหว่างผู้ที่มองว่า AI เป็นพลังแห่งความดี กับผู้ที่บอกว่ามันอันตราย

ในขณะเดียวกัน Elon Musk กล่าวในพอดแคสต์เมื่อต้นปีนี้ว่า “มีโอกาสเพียง 20% เท่านั้นที่จะถูกทำลายล้าง” เมื่อพูดถึงความเสี่ยงที่ AI ขั้นสูงจะเหนือกว่าสติปัญญาของมนุษย์

'แถลงการณ์เกี่ยวกับสติปัญญาระดับสูง' อ้างถึงการสำรวจล่าสุดจากสถาบัน Future of Life ซึ่งแสดงให้เห็นว่ามีเพียง 5% ของผู้ใหญ่ในสหรัฐอเมริกาที่สนับสนุน “สภาพที่เป็นอยู่ของการพัฒนาสติปัญญาระดับสูงที่รวดเร็วและไร้การควบคุม”

การสำรวจผู้ใหญ่ชาวอเมริกัน 2,000 คนยังพบว่าคนส่วนใหญ่เชื่อว่าไม่ควรสร้าง “AI เหนือมนุษย์” จนกว่าจะได้รับการพิสูจน์ว่าปลอดภัยหรือควบคุมได้ และต้องการกฎระเบียบที่เข้มงวดเกี่ยวกับ AI ขั้นสูง

ในแถลงการณ์บนเว็บไซต์ Bengio นักวิทยาศาสตร์คอมพิวเตอร์กล่าวว่าระบบ AI สามารถเอาชนะคนส่วนใหญ่ในงานด้านการรับรู้ได้ภายในไม่กี่ปี เขากล่าวเสริมว่าแม้ว่าความก้าวหน้าดังกล่าวสามารถช่วยแก้ปัญหาความท้าทายระดับโลกได้ แต่ก็มีความเสี่ยงที่สำคัญเช่นกัน

“เพื่อก้าวไปสู่ความเป็นอัจฉริยะอย่างปลอดภัย เราต้องกำหนดทางวิทยาศาสตร์ว่าจะออกแบบระบบ AI โดยพื้นฐานแล้วไม่สามารถทำร้ายผู้คนได้ ไม่ว่าจะผ่านการใช้งานที่ไม่ถูกต้องหรือการใช้งานที่เป็นอันตราย” เขากล่าว

“เรายังต้องแน่ใจว่าสาธารณชนมีความคิดเห็นที่เข้มแข็งมากขึ้นในการตัดสินใจที่จะกำหนดอนาคตโดยรวมของเรา”

     

คำแนะนำการอ่านบทความนี้ : บางบทความในเว็บไซต์ ใช้ระบบแปลภาษาอัตโนมัติ คำศัพท์เฉพาะบางคำอาจจะทำให้ไม่เข้าใจ สามารถเปลี่ยนภาษาเว็บไซต์เป็นภาษาอังกฤษ หรือปรับเปลี่ยนภาษาในการใช้งานเว็บไซต์ได้ตามที่ถนัด บทความของเรารองรับการใช้งานได้หลากหลายภาษา หากใช้ระบบแปลภาษาที่เว็บไซต์ยังไม่เข้าใจ สามารถศึกษาเพิ่มเติมโดยคลิกลิ้งค์ที่มาของบทความนี้ตามลิ้งค์ที่อยู่ด้านล่างนี้


ที่มาบทความนี้

spot_imgspot_img
RELATED ARTICLES
- Advertisment -
Technical Summary Widget Powered by Investing.com

ANALYSIS TODAY

Translate »