Google ra mắt Gemini 2.0 Flash, Pro Experimental và Flash-Lite cho các tác vụ AI đa phương thức
Google đã công bố vào thứ Năm việc ra mắt chính thức Gemini 2.0 Flash, một mô hình AI được tối ưu hóa cho các tác vụ tần suất cao, khối lượng lớn. Các nhà phát triển giờ đây có thể tích hợp mô hình này vào các ứng dụng sản xuất thông qua API Gemini trên Google AI. Thông cáo báo chí cũng đề cập đến hai phiên bản khác: Gemini Pro (phiên bản thử nghiệm) và Gemini Flash-Lite, cho thấy sự đa dạng hóa các giải pháp AI của Google để đáp ứng nhu cầu khác nhau.
Gemini 2.0 Flash được thiết kế để xử lý hiệu quả các yêu cầu xử lý ngôn ngữ tự nhiên (NLP) và hiểu biết hình ảnh một cách đồng thời (đa phương thức), nhanh chóng và chính xác. Khả năng xử lý khối lượng lớn, tần suất cao của nó làm cho nó trở nên lý tưởng cho các ứng dụng đòi hỏi phản hồi tức thời, chẳng hạn như chatbot, trợ lý ảo và các hệ thống tìm kiếm thông tin thời gian thực. Việc tích hợp thông qua API Gemini giúp các nhà phát triển dễ dàng kết hợp công nghệ tiên tiến này vào sản phẩm của mình mà không cần phải xây dựng từ đầu.
Sự ra mắt của Gemini Pro (trong giai đoạn thử nghiệm) và Gemini Flash-Lite thể hiện cam kết của Google trong việc cung cấp nhiều lựa chọn mô hình AI, phù hợp với nhiều khả năng xử lý và mức độ sử dụng khác nhau. Gemini Pro hứa hẹn sẽ mang đến hiệu suất cao hơn nữa cho các nhiệm vụ phức tạp hơn, trong khi Gemini Flash-Lite hướng tới các thiết bị có nguồn lực hạn chế, cho phép tích hợp AI rộng rãi hơn.
Sự phát triển nhanh chóng của Gemini 2.0 và các phiên bản liên quan chứng tỏ nỗ lực không ngừng của Google trong việc dẫn đầu cuộc cách mạng AI. Việc cung cấp các mô hình đa phương thức hiệu quả và dễ dàng tích hợp hứa hẹn sẽ thúc đẩy sự đổi mới trong nhiều lĩnh vực, từ chăm sóc khách hàng đến y tế và giáo dục.
#GoogleAI #Gemini2 #AI #MultimodalAI #MachineLearning #ArtificialIntelligence #GeminiFlash #GeminiPro #GoogleCloud #API #NLP #ComputerVision

Google on Thursday announced the general availability of Gemini 2.0 Flash, an AI model optimized for high-volume, high-frequency tasks. Developers can now integrate this model into production applications via the Gemini API in Google AI Studio and Vertex AI.
Additionally, Google introduced experimental models, including Gemini 2.0 Pro and Gemini 2.0 Flash-Lite, designed to improve coding performance, reasoning capabilities, and cost efficiency.
Gemini 2.0 Flash: Now Generally Available
First unveiled at Google I/O 2024, Gemini 2.0 Flash is built for multimodal reasoning across large datasets. It features a 1 million token context window, making it highly efficient for processing vast amounts of information.
Google highlighted its growing adoption among developers for handling large-scale AI tasks. The model is now available to more users across Google’s AI platforms, with enhancements in key benchmarks. Future updates will introduce image generation and text-to-speech capabilities.
Gemini 2.0 Pro Experimental: Enhanced Coding and Reasoning
Google also launched an experimental version of Gemini 2.0 Pro, aimed at advanced coding and complex problem-solving.
“It has the strongest coding performance and ability to handle complex prompts among all models we’ve released so far,” said Sundar Pichai, CEO of Google and Alphabet.
This model features a 2 million token context window, allowing it to process and analyze extensive datasets. It also integrates with Google Search and code execution tools, enhancing its reasoning and problem-solving abilities.
“This extended context window and tool integration make it our most capable model yet,” noted Koray Kavukcuoglu, CTO of Google DeepMind.
Gemini 2.0 Flash Thinking Experimental: Transparent AI Reasoning
Starting today, Gemini app users can access Gemini 2.0 Flash Thinking Experimental, a model that breaks down prompts into sequential steps to improve reasoning.
This model, available for free, enables users to see its thought process, assumptions, and decision-making logic.
Additionally, a variant of 2.0 Flash Thinking will soon integrate with apps like YouTube, Google Search, and Google Maps, enhancing AI-powered assistance.
Gemini 2.0 Flash-Lite: Cost-Effective AI with Stronger Performance
Google introduced Gemini 2.0 Flash-Lite, an optimized model that delivers better performance than Gemini 1.5 Flash while maintaining the same speed and cost.
Key features include:
- 1 million token context window
- Multimodal input capabilities
- Cost-efficient processing, capable of generating captions for 40,000 images at under $1 in Google AI Studio’s paid tier
This model is now available in public preview on Google AI Studio and Vertex AI.
Responsibility and Safety Measures
As Gemini models become more advanced, Google continues to implement reinforcement learning techniques to enhance accuracy and response quality.
Additionally, automated red teaming is used to identify and mitigate security risks, including threats from indirect prompt injection attacks, a cybersecurity concern where malicious instructions are embedded in retrieved data.
Pricing Updates
Google has simplified pricing for Gemini 2.0 Flash and Flash-Lite, eliminating separate pricing tiers for short and long-context requests.
This update makes both models more cost-effective than Gemini 1.5 Flash for mixed-context workloads, despite their improved capabilities.
Availability: Expanded Access for Developers
The Gemini 2.0 family is now available through Google AI Studio, Vertex AI, and the Gemini app:
- Gemini 2.0 Flash – Now generally available, featuring higher rate limits and improved performance.
- Gemini 2.0 Pro Experimental – Available to Gemini Advanced subscribers, optimized for coding and math tasks.
- Gemini 2.0 Flash-Lite – Now in public preview, offering cost-efficient AI solutions.
- Gemini 2.0 Flash Thinking Experimental – Available for Gemini app users, enhancing reasoning transparency.
Google also announced plans to expand these models to Google Workspace Business and Enterprise customers in the near future.
Khám phá thêm từ Global Resources
Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.