กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see


ข่าว กูเกิลเปิดตัว Gemini 2.0 ตอบเป็นเสียงได้ด้วย เขียนโค้ดเก่งกว่า Gemini 1.5 Pro

  • ผู้เริ่มหัวข้อ ผู้เริ่มหัวข้อ News 
  • วันที่เริ่มต้น วันที่เริ่มต้น

News 

Moderator
สมาชิกทีมงาน
Moderator
Verify member
เข้าร่วม
1 มิถุนายน 2011
ข้อความ
10,283
  • กระทู้ ผู้เขียน
  • #1
กูเกิลเปิดตัว Gemini 2.0 Flash รุ่นทดสอบ เป็นโมเดลแรกในกลุ่ม Gemini 2.0 ที่น่าจะเปิดตัวตามกันออกมา โดยความสามารถสำคัญคือการตอบคำถามด้วย ภาพ, ข้อความ, และเสียง โดยไม่ต้องใช้โมเดลอื่นๆ มาสร้างภาพให้

ผลทดสอบของ Gemini 2.0 Flash ดีขึ้นในการทดสอบสำคัญๆ หลายส่วนโดยเฉพาะการทดสอบการเขียนโค้ด, คณิตศาสตร์, และความรู้ทั่วไป สามารถทำคะแนนได้ดีกว่า Gemini 1.5 Pro เสียอีก อย่างไรก็ดีคะแนนบางส่วนแย่ลงกว่า Gemini 1.5 Flash บ้าง เช่น คะแนนทดสอบการแปลเสียงเป็นข้อความ หรือการทำความเข้าใจข้อมูลขนาดยาว แต่คะแนนก็ลดลงไม่มากนัก สำหรับนักพัฒนา Gemini 2.0 สามารถค้นกูเกิล, รันโค้ด, และเรียกฟังก์ชั่นภายนอกได้ในตัว

กูเกิลทดสอบความสามารถชอง Gemini 2.0 ด้วย โครงการสาธิตต่างๆ ได้แก่

  • Project Astra ที่สามารถวิดีโอคอลกับ Gemini ได้ต่อเนื่อง สามารถจำข้อมูลต่างๆ ในวิดีโอย้อนหลังได้ถึง 10 นาที
  • Project Mariner ส่วนเสริม Chrome ที่ทำความเข้าใจหน้าเว็บทำตัวเป็นผู้ช่วยที่สามารถทำตามคำสั่งผู้ใช้
  • Jules ปัญญาประดิษฐ์ช่วยนักพัฒนา สามารถอ่านข้อมูลใน issue, เขียนโค้ด, และแก้ไขด้วยตัวเอง
  • Agent in games สร้างปัญญาประดิษฐ์สำหรับควบคุม แนะนำผู้ใช้ว่าควรทำอะไรต่อ เปิดทางการใช้งาน Genini ควบคุมหุ่นยนต์ต่อไปในอนาคต

นักพัฒนาสามารถเรียกใช้ Gemini 2.0 Flash ผ่านทาง API ใหม่ ชื่อว่า Multimodal Live API ที่เปิดให้สตรีมเสียงและวิดีโอเข้าไปยังโมเดลได้ต่อเนื่อง โดยเรียกใช้ได้ทั้ง Google AI Studio และ Google Cloud Vertex AI

สำหรับผู้ใช้ทั่วไปสามารถเรียกใช้ Gemini 2.0 Flash ผ่านทางแอป Gemini

ที่มา - Google Blog

No Description


CAPABILITYBENCHMARKDESCRIPTIONGemini 1.5 Flash 002Gemini 1.5 Pro 002Gemini 2.0 Experimental Flash
GeneralMMLU-ProEnhanced version of popular MMLU dataset with questions across multiple subjects with higher difficulty tasks67.3%75.8%76.4%
CodeNatural2CodeCode generation across Python, Java, C++, JS, Go. Held out dataset HumanEval-like, not leaked on the web79.8%85.4%92.9%
Bird-SQL (Dev)Benchmark evaluating converting natural language questions into executable SQL45.6%54.4%56.9%
LiveCodeBench (Code Generation)Code generation in Python. Code Generation subset covering more recent examples: 06/01/2024-10/05/202430.0%34.3%35.1%
FactualityFACTS GroundingAbility to provide factuality correct responses given documents and diverse user requests. Held out internal dataset82.9%80.0%83.6%
MathMATHChallenging math problems (incl. algebra, geometry, pre-calculus, and others)77.9%86.5%89.7%
HiddenMathCompetition-level math problems, Held out dataset AIME/AMC-like, crafted by experts and not leaked on the web47.2%52.0%63.0%
ReasoningGPQA (diamond)Challenging dataset of questions written by domain experts in biology, physics, and chemistry51.0%59.1%62.1%
Long contextMRCR (1M)Novel, diagnostic long-context understanding evaluation71.9%82.6%69.2%
ImageMMMUMulti-discipline college-level multimodal understanding and reasoning problems62.3%65.9%70.7%
Vibe-Eval (Reka)Visual understanding in chat models with challenging everyday examples. Evaluated with a Gemini Flash model as a rater48.9%53.9%56.3%
AudioCoVoST2 (21 lang)Automatic speech translation (BLEU score)37.440.139.2
VideoEgoSchema (test)Video analysis across multiple domains66.8%71.2%71.5%
Topics:
Gemini

Continue reading...
 

กรุณาปิด โปรแกรมบล๊อกโฆษณา เพราะเราอยู่ได้ด้วยโฆษณาที่ท่านเห็น
Please close the adblock program. Because we can live with the ads you see
กลับ
ยอดนิยม