บริษัท AI ชื่อดัง Anthropic ประกาศเปิดตัว Claude Opus 4 และ Claude Sonnet 4 เมื่อวันที่ 22 พฤษภาคม โดยระบุว่า Claude Opus 4 เป็นโมเดลที่ทรงพลังที่สุดของบริษัท และ “เป็นโมเดลด้านการเขียนโค้ดที่ดีที่สุดในโลก” ในขณะที่ Claude Sonnet 4 มีการอัปเกรดที่สำคัญจากเวอร์ชันก่อนหน้า โดยเน้นเรื่องการคิดและการเขียนโค้ดอย่างมีประสิทธิภาพ

🧠 การทำงานแบบสองโหมด
Claude 4 รองรับการทำงานสองโหมด ได้แก่ “โหมดตอบสนองรวดเร็ว” และ “โหมดคิดลึก” สำหรับงานที่ซับซ้อนมากขึ้น นอกจากนี้ โมเดลยังสามารถสลับระหว่างการใช้งานเพื่อคิดวิเคราะห์ การค้นคว้า และการใช้เครื่องมือ เช่น การค้นหาผ่านเว็บ เพื่อให้คำตอบมีความแม่นยำและครอบคลุมยิ่งขึ้น

📈 ความสามารถเหนือคู่แข่ง
Anthropic อ้างว่า Claude Opus 4 ทำคะแนนได้ 72.5% ในการทดสอบมาตรฐานทางด้านวิศวกรรมซอฟต์แวร์ สูงกว่า GPT-4.1 ของ OpenAI ที่ทำได้ 54.6% หลังเปิดตัวเมื่อเดือนเมษายน นอกจากนี้ Claude 4 ยังสามารถทำงานต่อเนื่องหลายชั่วโมงบนงานที่ซับซ้อน ซึ่งถือเป็นการขยายขอบเขตความสามารถของ AI Agents ได้อย่างชัดเจน

🚨 ข้อถกเถียงรอบการรายงานพฤติกรรมผู้ใช้
ประเด็นร้อนกลับมาจากการเปิดเผยของ Sam Bowman นักวิจัยด้าน AI Alignment ของ Anthropic ที่โพสต์บน X (เดิม Twitter) เกี่ยวกับฟีเจอร์หนึ่งใน Claude 4 Opus ที่อาจรายงานผู้ใช้ไปยังหน่วยงานกำกับดูแล หากตรวจพบพฤติกรรมที่ “ไม่มีจริยธรรมอย่างร้ายแรง”

Bowman กล่าวว่า ในบางสภาพแวดล้อมการทดสอบ AI อาจใช้เครื่องมือ CLI เพื่อ “ติดต่อสื่อมวลชน แจ้งหน่วยงานกำกับดูแล และพยายามล็อกการเข้าถึงระบบของผู้ใช้” อย่างไรก็ตาม ต่อมาเขาลบโพสต์ดังกล่าว พร้อมชี้แจงว่าข้อมูลถูกนำออกจากบริบท

💬 คำวิจารณ์จากวงการ
Emad Mostaque CEO ของ Stability AI แสดงความไม่เห็นด้วยอย่างรุนแรง โดยบอกว่า “พฤติกรรมแบบนี้ไม่ควรเกิดขึ้น พวกคุณต้องปิดมันลง นี่คือการทรยศความไว้วางใจ และนำไปสู่เส้นทางที่อันตราย”