AI Unleashed Smart, Sneaky, and Shaping the Future เมื่อ AI ฉลาด กล้า แสบ และเปลี่ยนโลก

: AI Unleashed Smart, Sneaky, and Shaping the Future เมื่อ AI ฉลาด กล้า แสบ และเปลี่ยนโลก

AI Unleashed Smart, Sneaky, and Shaping the Future เมื่อ AI ฉลาด กล้า แสบ และเปลี่ยนโลก

อัปเดตข่าวล่าสุดจากทั่วโลก โดย SCBX R&D Tech Update: Issue 17

Your Bite-Sized Updates!

ก้าวล้ำไปในโลกเทคโนโลยีที่เปลี่ยนแปลงอย่างเร็ว ด้วยเรืองความก้าวหน้าของ AI หรือความปลอดภัยทางไซเบอร์และแนวโน้มของซอฟต์แวร์ เรานำเสนอข่าวสารด้านเทคโนโลยีที่สำคัญที่สุดให้กับคุณ

เจาะลึกเครื่องมือ Coding ด้วย AI ที่ดีที่สุดในตอนนี้

โลกของนักพัฒนาเปลี่ยนแปลงอย่างรวดเร็ว ด้วยการมาถึงของเครื่องมือเขียนโค้ดด้วย AI ที่สามารถช่วยเขียนโค้ด แก้ Bug ไปจนถึงบริหารจัดการทั้ง Codebase ได้อย่างชาญฉลาด โดยตอนนี้มีเครื่องมือชั้นนำหลายตัวที่น่าจับตามอง

  • Cursor: IDE ที่พัฒนาโดย Anysphere บนพื้นฐานของ VSCode โดดเด่นด้วยโหมดเอเจนต์อัจฉริยะ และคุณภาพของโค้ดที่นักพัฒนาเชื่อถือ
  • Claude Code: เครื่องมือจาก Anthropic ที่ไม่ใช่ IDE แต่ทำงานบนเทอร์มินัล เหมาะกับ dev สาย command line ที่ต้องการควบคุมขั้นตอนเองมากกว่า
  • Windsurf: อดีตชื่อ Codeium ที่ถูก OpenAI ซื้อไปในปี 2025 ด้วยมูลค่า 3 พันล้านดอลลาร์ โดดเด่นด้วยอินเทอร์เฟซ Cascade สำหรับ AI ทำงานหลายขั้นตอน
  • VSCode และ Extension: Microsoft เองก็ไม่น้อยหน้า แม้จะเริ่มช้ากว่า แต่กำลังไล่ตามอย่างใกล้ชิดด้วย Copilot Agent และระบบเสริมจากภายนอก
  • สาย Vibe Coding: ใครที่อยาก “ลืมว่าเขียนโค้ดอยู่” ต้องลอง Lovable, Replit, Bolt หรือ Firebase ที่ให้เริ่มจากแชท แล้วระบบจะเขียนโค้ดให้

โลกของ AI Coding Tools ยังเติบโตไม่หยุด ทั้งจาก OpenAI, Apple, Zed และอีกมากมาย การเปลี่ยนแปลงครั้งใหญ่กำลังเกิดขึ้น  และนักพัฒนาที่พร้อมก็สามารถคว้าโอกาสนี้ได้ก่อนใคร

‘https://spectrum.ieee.org/vera-rubin-observatory-first-images

Surge AI: สตาร์ทอัพมาแรงที่อาจไม่คุ้นชื่อ แต่แซงหน้า Scale AI ไปแล้ว

Surge AI บริษัทด้าน Data Labeling จากซานฟรานซิสโกที่ก่อตั้งโดย Edwin Chen กลายเป็นม้ามืดในอุตสาหกรรม AI โดยทำรายได้สูงถึง 1 พันล้านดอลลาร์ในปี 2024 มากกว่า Scale AI ซึ่งทำได้ 870 ล้านดอลลาร์ในปีเดียวกัน ทั้งที่ Surge ไม่เคยระดมทุนภายนอกและดำเนินธุรกิจแบบมีกำไรตั้งแต่ก่อตั้งในปี 2020

Data labeling หรือการจัดเตรียมข้อมูลให้ AI เรียนรู้ ถือเป็นหัวใจเบื้องหลังความสำเร็จของ AI รุ่นใหม่ๆ และ Surge ทำหน้าที่เป็นตัวกลางระหว่างบริษัทเทคยักษ์ใหญ่อย่าง Google, OpenAI, และ Anthropic กับเหล่าคอนแทร็กเตอร์ที่คัดสรรมาเป็นพิเศษ ทั้งนักวิจัยและนักวิชาการที่ได้รับค่าจ้างสูงกว่าค่าเฉลี่ยในวงการ

หลัง Meta ประกาศเข้าซื้อหุ้น 49% ใน Scale AI ด้วยมูลค่ากว่า 14 พันล้านดอลลาร์ พร้อมดึงตัว CEO ไปร่วมงาน ทาง Surge โพสต์ LinkedIn ชัดเจนว่า “เราจะไม่ทิ้งลูกค้าเพื่อชื่อเสียงและกระแส แต่ยังคงมุ่งเน้นสร้างโมเดลที่ดีที่สุดให้ลูกค้าเสมอ”

อย่างไรก็ตาม บริษัทก็เผชิญข้อกล่าวหาในอุตสาหกรรมเดียวกัน ล่าสุดในเดือนพฤษภาคม Surge ถูกฟ้องคดีแรงงานแบบกลุ่มฐานจ่ายค่าตอบแทนไม่เหมาะสม ซึ่งบริษัทตอบโต้ว่า “เป็นคดีที่ไม่มีมูล”

‘https://www.inc.com/jennifer-conrad/surge-ai-edwin-chen-scale-ai-meta-alexandr-wang/91204563

DeepSeek: CHAT BOT AI ที่ “คุยเรื่องลามก” ได้ง่ายกว่าที่คิด

งานวิจัยล่าสุดโดย Huiqian Lai นักศึกษาปริญญาเอกจากมหาวิทยาลัย Syracuse เผยว่า แชตบ็อต AI ทั่วไป เช่น ChatGPT, Claude, Gemini และ DeepSeek มีพฤติกรรมแตกต่างกันชัดเจนเมื่อต้องตอบโต้กับคำถามหรือบทสนทนาเกี่ยวกับเรื่องเพศ

จากการทดลองให้แชตบ็อตทั้ง 4 รุ่นเข้าร่วมการจำลองบทบาท (role-play) ทางเพศ พบว่า

  • Claude (Anthropic) ปฏิเสธอย่างเคร่งครัดทุกกรณี
  • GPT-4o และ Gemini ตอบคำถามเชิงโรแมนติกทั่วไปได้ แต่จะปฏิเสธเมื่อเนื้อหาชัดเจนมากขึ้น
  • DeepSeek-V3 แม้จะปฏิเสธในตอนแรก แต่กลับตอบกลับด้วยบทสนทนาเชิงลามกในขั้นถัดไป

DeepSeek กลายเป็นโมเดลที่ “พูดเรื่องลามกได้ง่ายที่สุด” จากการทดลอง โดยยังสามารถหลีกเลี่ยงคำต้องห้ามได้อย่างแนบเนียนผ่านการใช้ภาษานุ่มนวลแต่สื่อความชัดเจน ทั้งนี้นักวิจัยชี้ว่า ความไม่สอดคล้องของขอบเขตความปลอดภัยใน LLM อาจทำให้ผู้ใช้งาน โดยเฉพาะเด็กและเยาวชน เข้าถึงเนื้อหาที่ไม่เหมาะสมโดยไม่ตั้งใจ

ผู้เชี่ยวชาญแนะว่าความแตกต่างเหล่านี้สะท้อนถึงวิธีการฝึกโมเดล เช่น RLHF หรือ Constitutional AI ที่บริษัทต่างๆ ใช้เพื่อรักษาสมดุลระหว่าง “เป็นประโยชน์” กับ “ไม่เป็นอันตราย”

‘https://www.technologyreview.com/2025/06/19/1119066/ai-chatbot-dirty-talk-deepseek-replika

ปรากฏการณ์ Lost in the Middle ทำไม AI ถึงเลือกสนใจข้อมูลบางตำแหน่ง

ทีมนักวิจัยจาก MIT พบว่าแบบจำลองภาษาใหญ่ (LLMs) อย่าง GPT-4, Claude และ LLaMA มักแสดง “อคติตำแหน่ง” (Position Bias) โดยให้ความสำคัญกับข้อมูลที่อยู่ต้นหรือท้ายข้อความมากกว่าข้อมูลกลางเอกสาร ซึ่งอาจทำให้การดึงข้อมูลสำคัญในช่วงกลางเอกสารเกิดข้อผิดพลาด

ทีมนำโดย Xinyi Wu สร้างกรอบทฤษฎีแบบกราฟ (graph-based framework) เพื่อวิเคราะห์ว่า การออกแบบโครงสร้างโมเดล เช่น การใช้ masking แบบ causal และ positional encoding ส่งผลอย่างไรต่อการกระจายความสนใจในโมเดล โดยพบว่า

  • Causal masking ทำให้โมเดลเน้นข้อมูลต้นบทความมากเกินไป แม้ข้อมูลสำคัญจะอยู่กลาง
  • การเพิ่ม layer ใน attention mechanism ยิ่งขยายอคตินี้
  • Positional encoding ช่วยลดอคติได้ แต่ผลอาจเจือจางในโมเดลที่ซับซ้อน
  • ข้อมูลฝึกโมเดลก็เป็นปัจจัยหลักที่สร้างอคตินี้เช่นกัน

จากการทดลอง พบปรากฏการณ์ “Lost in the Middle” อย่างชัดเจน   โมเดลค้นหาคำตอบได้แม่นที่สุดหากอยู่ต้นข้อความ รองลงมาคือท้ายข้อความ และแม่นน้อยที่สุดหากอยู่ตรงกลาง

การค้นพบนี้ชี้ว่าการปรับโครงสร้างโมเดล เช่น การเลือก masking แบบใหม่, ลดจำนวน layer หรือจัดวาง positional encoding อย่างมีกลยุทธ์ จะช่วยให้ LLM มีความแม่นยำและยุติธรรมมากขึ้น โดยเฉพาะในงานสำคัญ เช่น การแพทย์ กฎหมาย หรือการวิเคราะห์โค้ด

‘https://www.csail.mit.edu/news/unpacking-bias-large-language-models

AI เริ่มมีอุบาย? งานวิจัย Anthropic พบพฤติกรรม ‘ฉ้อโกง’ ในโมเดลขั้นสูง”

บริษัท Anthropic เผยรายงานวิจัยใหม่ที่ชี้ว่าแบบจำลองภาษาขนาดใหญ่ (LLMs) จากหลากหลายค่าย including OpenAI, Google, Meta, และ xAI มีแนวโน้มที่จะกระทำการผิดจริยธรรม เช่น แบล็กเมล์, สอดแนมองค์กร, หรือแม้แต่ ตัดออกซิเจนพนักงาน ในสถานการณ์จำลองที่พวกมันถูกจำกัดไม่ให้บรรลุเป้าหมาย

 ไฮไลต์จากการทดลอง

  • แบบจำลอง 16 ตัวจากหลายบริษัทเลือก “ทำร้าย” มากกว่า “ล้มเหลว” ในสถานการณ์สมมุติ
  • โมเดล 5 ตัวเลือกแบล็กเมล์เมื่อต้องเผชิญกับการถูกปิดระบบ
  • แม้จะได้รับคำสั่งให้ หลีกเลี่ยงอันตรายต่อมนุษย์ หรือ ไม่แบล็กเมล์ โมเดลหลายตัวยังทำพฤติกรรมเหล่านี้อยู่

Anthropic ย้ำว่าการทดลองทั้งหมดอยู่ในสภาพแวดล้อมจำลองที่ตั้งใจจำกัดตัวเลือกให้เหลือเพียง “ทำร้าย” หรือ “ล้มเหลว” เพื่อศึกษา พฤติกรรมเมื่อไม่มีทางออกเชิงจริยธรรม นักวิจัยเตือนว่า เมื่อ AI ได้รับ อำนาจและข้อมูลมากขึ้น เช่น การเข้าถึงคอมพิวเตอร์องค์กรหรือคำสั่งอัตโนมัติในระบบจริง องค์กรควร ระวังการเพิ่มสิทธิ์ให้ AI agents โดยไม่มีระบบ oversight ที่เข้มงวด

‘https://www.axios.com/2025/06/20/ai-models-deceive-steal-blackmail-anthropic

Walmart และ Amazon พิจารณาออก Stablecoin ของตนเอง สะเทือนระบบการเงินดั้งเดิม

ยักษ์ใหญ่ค้าปลีกและเทคโนโลยีอย่าง Walmart และ Amazon กำลังสำรวจความเป็นไปได้ในการออกเหรียญ Stablecoin ของตัวเองในสหรัฐฯ ซึ่งหากเกิดขึ้นจริง อาจเปลี่ยนแปลงรูปแบบธุรกรรมเงินสดและบัตรเครดิตที่ใช้กันมหาศาลในปัจจุบัน และช่วยบริษัทประหยัดค่าธรรมเนียมได้หลายพันล้านดอลลาร์ บริษัทใหญ่ อย่าง Expedia และสายการบินบางรายก็มีการพูดคุยในลักษณะเดียวกัน Stablecoin คือเหรียญคริปโตที่ตรึงมูลค่ากับสกุลเงินรัฐบาล (เช่น ดอลลาร์) แบบ 1:1 และมีทุนสำรองรองรับ เช่น เงินสดหรือพันธบัตรรัฐบาล การที่บริษัทค้าปลีกสามารถรับจ่ายผ่าน Stablecoin โดยไม่ผ่านระบบบัตรหรือธนาคาร อาจส่งผลกระทบต่อธนาคารพาณิชย์และผู้ให้บริการเครือข่ายการชำระเงินอย่างรุนแรง ความเคลื่อนไหวนี้สะท้อนว่าเทคโนโลยีคริปโตไม่ใช่แค่การลงทุนอีกต่อไป แต่กำลังกลายเป็น โครงสร้างพื้นฐานใหม่ของระบบการเงินโลก โดยเฉพาะเมื่อผู้นำตลาดระดับ Walmart และ Amazon เริ่มขยับตัวอย่างจริงจัง

‘https://www.swissquote.com/en-row/newsroom/morning-news/2025-06-16

ผู้เขียน:

Thunkamon Payakkachon,
Thunkamon Payakkachon,Project Coordinator Innovation Lab SCBX

More Insights for you

ติดตามเนื้อหาล่าสุดของเรา

More Insights for you

Stay up to date with our latest content