Google กำลังนำโมเดล “การให้เหตุผล” ทดลองของปัญญาประดิษฐ์ที่สามารถอธิบายวิธีการตอบคำถามที่ซับซ้อนมาสู่แอพ Gemini การอัปเดต Gemini 2.0 Flash Thinking เป็นส่วนหนึ่งของการเปิดตัว Gemini 2.0 AI หลายรายการที่ Google ประกาศในวันนี้ รวมถึงโมเดลเรือธง Gemini 2.0 Pro ล่าสุด
เรื่องนี้เกิดขึ้นในขณะที่บริษัทยักษ์ใหญ่ด้านการค้นหาคาดว่าจะลงทุน 75 พันล้านดอลลาร์ในค่าใช้จ่ายต่างๆ เช่น การขยายตระกูลโมเดล AI ในปีนี้ ซึ่งเพิ่มขึ้นอย่างมากจาก 32.3 พันล้านดอลลาร์ที่ใช้จ่ายในปี 2023 โดย Google กำลังเร่งพัฒนาเพื่อแข่งขันกับคู่แข่งด้าน AI เช่น OpenAI, Microsoft, Meta และ Anthropic ที่ได้รับการสนับสนุนจาก Amazon
Gemini 2.0 Flash Thinking จะเปิดให้ใช้งานในตัวเลือกแบบดรอปดาวน์ของโมเดลบนแอพเดสก์ท็อปและมือถือตั้งแต่วันนี้ พร้อมกับอีกเวอร์ชันหนึ่งของโมเดลที่สามารถ “โต้ตอบกับแอพต่างๆ เช่น YouTube, Search และ Google Maps” ตามที่ Google ระบุ โมเดลนี้ถูกแนะนำในเดือนธันวาคม 2024 และคาดว่าจะแข่งขันกับโมเดล AI ที่เรียกว่าโมเดลการให้เหตุผลอื่นๆ เช่น o1 ของ OpenAI และ R1 ของ DeepSeek
โมเดลเหล่านี้ทำงานโดยแยกปัญหาออกเป็นขั้นตอนย่อยๆ ที่จัดการได้ ทำให้สามารถ “คิด” เกี่ยวกับคำสั่งก่อนที่จะเสนอวิธีแก้ปัญหา ผลลัพธ์ที่ต้องการคือการได้ผลลัพธ์ที่แข็งแกร่งและแม่นยำมากขึ้น แต่มักจะแลกมาด้วยการใช้เวลานานขึ้นในการทำงาน
Google ยังเปิดตัวเวอร์ชันทดลองของ Gemini 2.0 Pro ตามข้อมูลที่รั่วไหลของตัวอย่างที่รายงานโดย TechCrunch ตัวสืบทอดของ Gemini 1.5 Pro ควรให้ “ความถูกต้องที่ดีขึ้น” และ “ประสิทธิภาพที่แข็งแกร่งขึ้น” สำหรับงานที่เกี่ยวข้องกับการเขียนโค้ดและคณิตศาสตร์ Gemini 2.0 Pro ถูกอธิบายว่าเป็น “โมเดลที่มีความสามารถมากที่สุด” ของ Google จนถึงปัจจุบัน และจะเปิดให้ใช้งานสำหรับผู้ใช้แอพ Advanced Gemini และผู้ที่เข้าถึง Vertex AI และ AI Studio
Gemini 2.0 Flash — เวอร์ชันล่าสุดของโมเดล AI ประสิทธิภาพสูงของ Google — ตอนนี้เปิดให้นักพัฒนาใช้งานทั่วไปใน AI Studio และ Vertex AI หลังจากเปิดตัวบนเว็บและแอพมือถือของ Gemini เมื่อสัปดาห์ที่แล้ว
สุดท้าย Google ปิดท้ายการอัปเดตเหล่านี้ด้วยการแนะนำโมเดลราคาประหยัดใหม่ที่เรียกว่า 2.0 Flash-Lite ซึ่งบริษัทกล่าวว่ามีความเร็วและราคาเทียบเท่ากับ 1.5 Flash ในขณะที่มีประสิทธิภาพดีกว่า “ในเกณฑ์มาตรฐานส่วนใหญ่” Gemini 2.0 Flash-Lite กำลังเปิดตัวในรูปแบบพรีวิวสาธารณะวันนี้บน AI Studio และ Vertex AI ของ Google”