From b43d4b27ad6b7272c556a5292f41c503251bf80b Mon Sep 17 00:00:00 2001 From: LobeHub Bot Date: Mon, 20 Oct 2025 10:32:04 +0800 Subject: [PATCH 1/6] =?UTF-8?q?=F0=9F=A4=96=20style:=20update=20i18n=20(#9?= =?UTF-8?q?787)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit 💄 style: update i18n Co-authored-by: canisminor1990 <17870709+canisminor1990@users.noreply.github.com> --- locales/ar/models.json | 12 ++++++++++++ locales/bg-BG/models.json | 12 ++++++++++++ locales/de-DE/models.json | 12 ++++++++++++ locales/en-US/models.json | 12 ++++++++++++ locales/es-ES/models.json | 12 ++++++++++++ locales/fa-IR/models.json | 12 ++++++++++++ locales/fr-FR/models.json | 12 ++++++++++++ locales/it-IT/models.json | 12 ++++++++++++ locales/ja-JP/models.json | 12 ++++++++++++ locales/ko-KR/models.json | 12 ++++++++++++ locales/nl-NL/models.json | 12 ++++++++++++ locales/pl-PL/models.json | 12 ++++++++++++ locales/pt-BR/models.json | 12 ++++++++++++ locales/ru-RU/models.json | 12 ++++++++++++ locales/tr-TR/models.json | 12 ++++++++++++ locales/vi-VN/models.json | 12 ++++++++++++ locales/zh-CN/models.json | 12 ++++++++++++ locales/zh-TW/models.json | 12 ++++++++++++ 18 files changed, 216 insertions(+) diff --git a/locales/ar/models.json b/locales/ar/models.json index 40ac5ceec0a..746b230494f 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview هو أحدث نموذج بحث تجريبي من Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي. من خلال استكشاف آليات معقدة مثل خلط اللغة والاستدلال التكراري، تشمل المزايا الرئيسية القدرة القوية على التحليل الاستدلالي، والقدرات الرياضية والبرمجية. في الوقت نفسه، هناك أيضًا مشكلات في تبديل اللغة، ودورات الاستدلال، واعتبارات الأمان، واختلافات في القدرات الأخرى." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image هو نموذج أساسي لتوليد الصور تم تطويره من قبل فريق Tongyi Qianwen التابع لشركة Alibaba، ويحتوي على 20 مليار معلمة. حقق هذا النموذج تقدمًا ملحوظًا في عرض النصوص المعقدة وتحرير الصور بدقة، ويتميز بقدرته العالية على توليد صور تحتوي على نصوص صينية وإنجليزية عالية الدقة. لا يقتصر عمل Qwen-Image على معالجة تخطيطات متعددة الأسطر والنصوص على مستوى الفقرات، بل يحافظ أيضًا على اتساق التنسيق وتناسق السياق أثناء توليد الصور. بالإضافة إلى قدراته الفائقة في عرض النصوص، يدعم النموذج مجموعة واسعة من الأساليب الفنية، من الصور الواقعية إلى الجماليات الأنمي، مما يجعله قادرًا على التكيف مع مختلف احتياجات الإبداع. كما يتمتع بقدرات قوية في تحرير الصور وفهمها، ويدعم عمليات متقدمة مثل نقل الأسلوب، إضافة أو إزالة العناصر، تعزيز التفاصيل، تحرير النصوص، وحتى التحكم في وضعيات الجسم البشري، ليكون نموذجًا أساسيًا شاملاً لمعالجة الصور الذكية يجمع بين اللغة والتنسيق والصورة." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 هو أحدث إصدار لتحرير الصور من نموذج Qwen-Image، تم تطويره من قبل فريق Tongyi Qianwen التابع لشركة Alibaba. يعتمد هذا النموذج على Qwen-Image الذي يحتوي على 20 مليار معلمة، وتم تدريبه بعمق لتوسيع قدراته الفريدة في عرض النصوص إلى مجال تحرير الصور، مما يتيح تحريرًا دقيقًا للنصوص داخل الصور. يستخدم Qwen-Image-Edit بنية مبتكرة تُدخل الصورة إلى كل من Qwen2.5-VL (للتحكم في المعنى البصري) وVAE Encoder (للتحكم في المظهر البصري)، مما يمنحه قدرة مزدوجة على التحرير من حيث المعنى والمظهر. وهذا يعني أنه لا يدعم فقط تحرير المظهر المحلي مثل الإضافة أو الحذف أو التعديل، بل يدعم أيضًا تحريرًا بصريًا دلاليًا متقدمًا يتطلب الحفاظ على الاتساق المعنوي، مثل إنشاء محتوى IP أو نقل الأسلوب. وقد أظهر النموذج أداءً رائدًا (SOTA) في العديد من اختبارات المعايير العامة، مما يجعله نموذجًا أساسيًا قويًا لتحرير الصور." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي أصدره فريق Tongyi Qianwen في علي بابا، مصمم خصيصًا لمهام الاستدلال المعقدة. يعتمد على بنية Qwen3-Next المبتكرة التي تدمج آلية انتباه هجينة (Gated DeltaNet و Gated Attention) وهيكل خبراء مختلط عالي التشتت (MoE)، بهدف تحقيق أقصى كفاءة في التدريب والاستدلال. كنموذج متناثر يحتوي على 80 مليار معلمة إجمالية، فإنه ينشط حوالي 3 مليارات معلمة فقط أثناء الاستدلال، مما يقلل بشكل كبير من تكلفة الحوسبة، وعند معالجة مهام سياق طويل تتجاوز 32 ألف رمز، فإن معدل الاستدلال يتفوق على نموذج Qwen3-32B بأكثر من 10 أضعاف. نسخة \"Thinking\" هذه مخصصة لتنفيذ مهام متعددة الخطوات عالية الصعوبة مثل الإثباتات الرياضية، توليف الشيفرة، التحليل المنطقي والتخطيط، وتخرج عملية الاستدلال بشكل افتراضي في شكل \"سلسلة تفكير\" منظمة. من حيث الأداء، يتفوق هذا النموذج ليس فقط على نماذج ذات تكلفة أعلى مثل Qwen3-32B-Thinking، بل يتفوق أيضًا في عدة اختبارات معيارية على Gemini-2.5-Flash-Thinking." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct هو نموذج لغة بصرية من سلسلة Qwen3، تم تطويره استنادًا إلى Qwen3-8B-Instruct وتدريبه على كمية كبيرة من بيانات الصور والنصوص. يتميز بقدرته على فهم الرؤية العامة، وإجراء حوارات تتمحور حول المحتوى البصري، والتعرف على النصوص متعددة اللغات داخل الصور. وهو مناسب لتطبيقات مثل الأسئلة والأجوبة البصرية، ووصف الصور، واتباع التعليمات متعددة الوسائط، واستدعاء الأدوات." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking هو إصدار التفكير البصري من سلسلة Qwen3، تم تحسينه خصيصًا لمهام الاستدلال المعقدة متعددة الخطوات. يقوم بشكل افتراضي بتوليد سلسلة من الأفكار (thinking chain) قبل الإجابة لتحسين دقة الاستدلال. وهو مناسب للسيناريوهات التي تتطلب استدلالًا عميقًا مثل الأسئلة والأجوبة البصرية، ومراجعة محتوى الصور وتقديم تحليلات مفصلة." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات." }, diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index b9dd4aff682..3f582802892 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview е най-новият експериментален изследователски модел на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности. Чрез изследване на сложни механизми като езикови смеси и рекурсивно разсъждение, основните предимства включват мощни аналитични способности, математически и програмистки умения. В същото време съществуват проблеми с езиковото превключване, цикли на разсъждение, съображения за безопасност и разлики в други способности." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image е базов модел за генериране на изображения, разработен от екипа на Tongyi Qianwen в Alibaba, с 20 милиарда параметъра. Моделът постига значителен напредък в сложния текстов рендеринг и прецизното редактиране на изображения, като е особено добър в създаването на изображения с висококачествен текст както на китайски, така и на английски език. Qwen-Image може да обработва многострочно оформление и текст на ниво абзац, като същевременно поддържа последователност в типографията и хармония в контекста при генериране на изображения. Освен изключителните си способности за текстов рендеринг, моделът поддържа широка гама от художествени стилове — от реалистична фотография до аниме естетика — и може гъвкаво да се адаптира към различни творчески нужди. Също така притежава мощни възможности за редактиране и разбиране на изображения, включително трансфер на стил, добавяне и премахване на обекти, подобряване на детайли, редактиране на текст и дори управление на човешки пози. Целта му е да бъде цялостен интелигентен базов модел за визуално творчество и обработка, който обединява език, оформление и изображение." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 е най-новата версия за редактиране на изображения от Qwen-Image, разработена от екипа на Tongyi Qianwen в Alibaba. Моделът е допълнително обучен на базата на Qwen-Image с 20 милиарда параметъра и успешно разширява уникалните си способности за текстов рендеринг в областта на редактирането на изображения, позволявайки прецизна редакция на текст в изображения. Qwen-Image-Edit използва иновативна архитектура, при която входното изображение се подава едновременно към Qwen2.5-VL (за семантичен визуален контрол) и VAE Encoder (за контрол на визуалния външен вид), осигурявайки двойна способност за редактиране както на семантиката, така и на външния вид. Това означава, че моделът поддържа не само локални редакции като добавяне, премахване или промяна на елементи, но и по-сложни семантични редакции, изискващи запазване на смисъла, като създаване на IP съдържание и трансфер на стил. Моделът показва водеща (SOTA) производителност в множество публични бенчмаркове, което го прави мощен базов модел за редактиране на изображения." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking е следващото поколение основен модел, публикуван от екипа на Alibaba Tongyi Qianwen, специално проектиран за сложни задачи за разсъждение. Той е базиран на иновативната архитектура Qwen3-Next, която комбинира хибриден механизъм за внимание (Gated DeltaNet и Gated Attention) и структура с висока степен на разреждане на смесени експерти (MoE), с цел постигане на изключителна ефективност при обучение и извод. Като разреден модел с общо 80 милиарда параметри, при извод активира само около 3 милиарда параметри, което значително намалява изчислителните разходи. При обработка на задачи с дълъг контекст над 32K токена, пропускателната способност при извод е над 10 пъти по-висока в сравнение с модела Qwen3-32B. Тази „Thinking“ версия е оптимизирана за изпълнение на сложни многостъпкови задачи като математически доказателства, синтез на код, логически анализ и планиране, като по подразбиране изходът на разсъжденията е във формата на структурирана „мисловна верига“. По отношение на производителността, тя не само превъзхожда модели с по-високи разходи като Qwen3-32B-Thinking, но и превъзхожда Gemini-2.5-Flash-Thinking в множество бенчмаркове." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct е визуално-езиков модел от серията Qwen3, базиран на Qwen3-8B-Instruct и обучен върху голям обем от данни с изображения и текст. Той е особено добър в общо визуално разбиране, визуално-центрирани диалози и разпознаване на многоезичен текст в изображения. Подходящ е за визуални въпроси и отговори, описание на изображения, мултимодални инструкции и използване на инструменти." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking е версия от серията Qwen3, фокусирана върху визуално мислене, оптимизирана за сложни задачи с многостъпково разсъждение. По подразбиране генерира верига от мисли (thinking chain) преди отговора, за да подобри точността на разсъжденията. Подходящ е за визуални въпроси и отговори, които изискват дълбоко разсъждение, преглед на съдържанието на изображения и предоставяне на подробен анализ." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност." }, diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 7062fc1d512..996da2bb65d 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview ist das neueste experimentelle Forschungsmodell von Qwen, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert. Durch die Erforschung komplexer Mechanismen wie Sprachmischung und rekursive Inferenz bietet es Hauptvorteile wie starke Analysefähigkeiten, mathematische und Programmierfähigkeiten. Gleichzeitig gibt es Herausforderungen wie Sprachwechsel, Inferenzzyklen, Sicherheitsüberlegungen und Unterschiede in anderen Fähigkeiten." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image ist ein von Alibabas Tongyi Qianwen-Team entwickeltes Basismodell zur Bildgenerierung mit 20 Milliarden Parametern. Das Modell erzielt bemerkenswerte Fortschritte bei der komplexen Textrendering und präzisen Bildbearbeitung und ist besonders gut darin, Bilder mit hochauflösenden chinesischen und englischen Texten zu erzeugen. Qwen-Image kann nicht nur mehrzeilige Layouts und absatzweise Texte verarbeiten, sondern bewahrt auch die Kohärenz des Layouts und die Kontextharmonie bei der Bildgenerierung. Neben seiner herausragenden Textrendering-Fähigkeit unterstützt das Modell eine breite Palette künstlerischer Stile – von realistischen Fotografien bis hin zu Anime-Ästhetik – und passt sich flexibel an verschiedene kreative Anforderungen an. Darüber hinaus verfügt es über leistungsstarke Bildbearbeitungs- und Bildverständnisfähigkeiten, einschließlich Stiltransfer, Objektentfernung und -hinzufügung, Detailverbesserung, Textbearbeitung und sogar Steuerung menschlicher Posen. Ziel ist es, ein umfassendes intelligentes Basismodell für visuelle Kreation und Verarbeitung zu sein, das Sprache, Layout und Bild vereint." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 ist die neueste Version des Bildbearbeitungsmodells Qwen-Image, entwickelt vom Tongyi Qianwen-Team bei Alibaba. Das Modell basiert auf dem 20B-Parameter-Modell Qwen-Image und wurde gezielt weitertrainiert, um dessen einzigartige Textrendering-Fähigkeiten erfolgreich auf den Bereich der Bildbearbeitung zu übertragen – insbesondere für die präzise Bearbeitung von Texten in Bildern. Qwen-Image-Edit verwendet eine innovative Architektur, bei der das Eingabebild gleichzeitig in Qwen2.5-VL (für semantische Steuerung) und den VAE-Encoder (für visuelle Erscheinungskontrolle) eingespeist wird. Dadurch ermöglicht es sowohl semantische als auch visuelle Bearbeitungen. Das bedeutet, dass es nicht nur lokale visuelle Änderungen wie das Hinzufügen, Entfernen oder Modifizieren von Elementen unterstützt, sondern auch komplexe semantische Bearbeitungen wie IP-Kreationen oder Stilübertragungen, bei denen die inhaltliche Konsistenz gewahrt bleibt. In mehreren öffentlichen Benchmark-Tests erzielte das Modell Spitzenleistungen (SOTA) und etabliert sich damit als leistungsstarkes Basismodell für die Bildbearbeitung." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking ist ein von Alibaba Tongyi Qianwen Team veröffentlichtes nächstes Generation Basis-Modell, das speziell für komplexe Inferenzaufgaben entwickelt wurde. Es basiert auf der innovativen Qwen3-Next-Architektur, die hybride Aufmerksamkeitsmechanismen (Gated DeltaNet und Gated Attention) mit einer hochgradig spärlichen Mixture-of-Experts (MoE)-Struktur kombiniert, um höchste Trainings- und Inferenz-Effizienz zu gewährleisten. Als spärliches Modell mit insgesamt 80 Milliarden Parametern werden bei der Inferenz nur etwa 3 Milliarden Parameter aktiviert, was die Rechenkosten stark reduziert. Bei der Verarbeitung von Langkontextaufgaben mit über 32K Tokens übertrifft der Durchsatz das Qwen3-32B-Modell um das Zehnfache. Diese „Thinking“-Version ist für anspruchsvolle mehrstufige Aufgaben wie mathematische Beweise, Code-Synthese, logische Analyse und Planung optimiert und gibt den Inferenzprozess standardmäßig in strukturierter „Denkketten“-Form aus. In der Leistung übertrifft es nicht nur kostenintensivere Modelle wie Qwen3-32B-Thinking, sondern auch in mehreren Benchmarks das Gemini-2.5-Flash-Thinking." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct ist ein visuelles Sprachmodell der Qwen3-Serie, basierend auf Qwen3-8B-Instruct und auf umfangreichen Bild-Text-Daten trainiert. Es ist spezialisiert auf allgemeines visuelles Verständnis, visuell zentrierte Dialoge und mehrsprachige Texterkennung in Bildern. Es eignet sich für Szenarien wie visuelle Frage-Antwort-Systeme, Bildbeschreibungen, multimodale Befehlsausführung und Tool-Integration." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking ist die Version der Qwen3-Serie mit Fokus auf visuelles Denken. Sie wurde für komplexe, mehrstufige Schlussfolgerungsaufgaben optimiert und generiert standardmäßig eine schrittweise Denkweise (Thinking Chain), um die Genauigkeit der Schlussfolgerungen zu verbessern. Ideal für Szenarien, die tiefgreifende visuelle Analysen erfordern, wie visuelle Frage-Antwort-Systeme oder die detaillierte Auswertung von Bildinhalten." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das 128k Kontext unterstützt. Im Vergleich zu den derzeit besten Open-Source-Modellen übertrifft Qwen2-72B in den Bereichen natürliche Sprachverständnis, Wissen, Code, Mathematik und Mehrsprachigkeit deutlich die führenden Modelle." }, diff --git a/locales/en-US/models.json b/locales/en-US/models.json index 1c1bde950ad..d3394541f55 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview is Qwen's latest experimental research model, focusing on enhancing AI reasoning capabilities. By exploring complex mechanisms such as language mixing and recursive reasoning, its main advantages include strong analytical reasoning, mathematical, and programming abilities. However, it also faces challenges such as language switching issues, reasoning loops, safety considerations, and differences in other capabilities." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image is a foundational image generation model developed by Alibaba's Tongyi Qianwen team, featuring 20 billion parameters. The model has made significant advancements in complex text rendering and precise image editing, excelling particularly at generating images with high-fidelity Chinese and English text. Qwen-Image can handle multi-line layouts and paragraph-level text while maintaining coherent typography and contextual harmony in generated images. Beyond its exceptional text rendering capabilities, the model supports a wide range of artistic styles—from photorealism to anime aesthetics—adapting flexibly to diverse creative needs. It also boasts powerful image editing and understanding capabilities, supporting advanced operations such as style transfer, object addition/removal, detail enhancement, text editing, and even human pose manipulation. Qwen-Image is designed to be a comprehensive foundational model for intelligent visual creation and processing, integrating language, layout, and imagery." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 is the latest image editing version of Qwen-Image, released by Alibaba's Tongyi Qianwen team. Built upon the 20B-parameter Qwen-Image model, it has been further trained to extend its unique text rendering capabilities into the domain of image editing, enabling precise manipulation of text within images. Qwen-Image-Edit employs an innovative architecture that feeds the input image into both Qwen2.5-VL (for visual semantic control) and a VAE Encoder (for visual appearance control), enabling dual editing capabilities in both semantics and appearance. This allows for not only localized visual edits such as adding, removing, or modifying elements, but also high-level semantic edits like IP creation and style transfer that require semantic consistency. The model has demonstrated state-of-the-art (SOTA) performance across multiple public benchmarks, making it a powerful foundational model for image editing." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking is the next-generation foundational model released by Alibaba's Tongyi Qianwen team, specifically designed for complex reasoning tasks. It is based on the innovative Qwen3-Next architecture, which integrates a hybrid attention mechanism (Gated DeltaNet and Gated Attention) and a highly sparse mixture-of-experts (MoE) structure, aiming for ultimate training and inference efficiency. As a sparse model with a total of 80 billion parameters, it activates only about 3 billion parameters during inference, greatly reducing computational costs. When processing long-context tasks exceeding 32K tokens, its throughput is more than 10 times higher than the Qwen3-32B model. This \"Thinking\" version is optimized for executing challenging multi-step tasks such as mathematical proofs, code synthesis, logical analysis, and planning, and by default outputs the reasoning process in a structured \"chain-of-thought\" format. In terms of performance, it not only surpasses higher-cost models like Qwen3-32B-Thinking but also outperforms Gemini-2.5-Flash-Thinking on multiple benchmarks." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct is a vision-language model from the Qwen3 series, built on Qwen3-8B-Instruct and trained on a large corpus of image-text data. It excels at general visual understanding, vision-centric dialogue, and multilingual text recognition within images. It is well-suited for tasks such as visual question answering, image captioning, multimodal instruction following, and tool invocation." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking is the visual reasoning variant of the Qwen3 series, optimized for complex multi-step reasoning tasks. By default, it generates a step-by-step thinking chain before answering, enhancing reasoning accuracy. It is ideal for scenarios requiring in-depth reasoning, such as visual question answering and detailed analysis of image content." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 is the latest series of the Qwen model, supporting 128k context. Compared to the current best open-source models, Qwen2-72B significantly surpasses leading models in natural language understanding, knowledge, coding, mathematics, and multilingual capabilities." }, diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 5704e6e1c97..2df9d23393c 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview es el último modelo de investigación experimental de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA. A través de la exploración de mecanismos complejos como la mezcla de lenguajes y el razonamiento recursivo, sus principales ventajas incluyen una poderosa capacidad de análisis de razonamiento, así como habilidades matemáticas y de programación. Sin embargo, también presenta problemas de cambio de idioma, ciclos de razonamiento, consideraciones de seguridad y diferencias en otras capacidades." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image es un modelo base de generación de imágenes desarrollado por el equipo Tongyi Qianwen de Alibaba, con 20 mil millones de parámetros. Este modelo ha logrado avances significativos en la representación compleja de texto y la edición precisa de imágenes, destacándose especialmente en la generación de imágenes con texto en chino e inglés de alta fidelidad. Qwen-Image no solo puede manejar diseños de múltiples líneas y textos a nivel de párrafo, sino que también mantiene la coherencia tipográfica y la armonía contextual al generar imágenes. Además de su sobresaliente capacidad de renderizado de texto, el modelo admite una amplia gama de estilos artísticos, desde fotografía realista hasta estética de anime, adaptándose con flexibilidad a diversas necesidades creativas. También posee potentes capacidades de edición y comprensión de imágenes, incluyendo transferencia de estilo, adición y eliminación de objetos, mejora de detalles, edición de texto e incluso manipulación de posturas humanas. Su objetivo es convertirse en un modelo base integral para la creación y procesamiento visual inteligente que integre lenguaje, diseño y contenido visual." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 es la versión más reciente de edición de imágenes del modelo Qwen-Image, lanzado por el equipo Tongyi Qianwen de Alibaba. Este modelo ha sido entrenado en profundidad sobre la base del modelo Qwen-Image de 20 mil millones de parámetros, extendiendo con éxito su capacidad única de renderizado de texto al ámbito de la edición de imágenes, logrando una edición precisa del texto dentro de las imágenes. Qwen-Image-Edit adopta una arquitectura innovadora que envía la imagen de entrada simultáneamente a Qwen2.5-VL (para el control semántico visual) y al codificador VAE (para el control de la apariencia visual), lo que le otorga una capacidad de edición dual tanto semántica como visual. Esto significa que no solo permite ediciones locales de apariencia como agregar, eliminar o modificar elementos, sino también ediciones semánticas visuales avanzadas que requieren coherencia semántica, como la creación de propiedad intelectual (IP) o la transferencia de estilo. El modelo ha demostrado un rendimiento de vanguardia (SOTA) en múltiples pruebas de referencia públicas, consolidándose como un potente modelo base para la edición de imágenes." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking es un modelo base de próxima generación lanzado por el equipo Tongyi Qianwen de Alibaba, diseñado específicamente para tareas complejas de razonamiento. Basado en la innovadora arquitectura Qwen3-Next, que integra mecanismos de atención híbrida (Gated DeltaNet y Gated Attention) y una estructura de expertos mixtos altamente dispersos (MoE), busca alcanzar una eficiencia extrema en entrenamiento e inferencia. Como modelo disperso con 80 mil millones de parámetros totales, solo activa alrededor de 3 mil millones durante la inferencia, reduciendo considerablemente el costo computacional. En tareas de contexto largo que superan los 32K tokens, su rendimiento es más de 10 veces superior al modelo Qwen3-32B. Esta versión “Thinking” está optimizada para ejecutar tareas complejas de múltiples pasos como demostraciones matemáticas, síntesis de código, análisis lógico y planificación, y por defecto produce el proceso de razonamiento en forma estructurada de “cadena de pensamiento”. En rendimiento, supera no solo a modelos más costosos como Qwen3-32B-Thinking, sino también a Gemini-2.5-Flash-Thinking en múltiples benchmarks." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct es un modelo de lenguaje visual de la serie Qwen3, desarrollado a partir de Qwen3-8B-Instruct y entrenado con grandes volúmenes de datos de texto e imagen. Se especializa en comprensión visual general, diálogos centrados en lo visual y reconocimiento multilingüe de texto en imágenes. Es adecuado para tareas como preguntas y respuestas visuales, descripción de imágenes, seguimiento de instrucciones multimodales y activación de herramientas." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking es la versión de razonamiento visual de la serie Qwen3, optimizada para tareas complejas de razonamiento en múltiples pasos. Por defecto, genera una cadena de pensamiento antes de responder, con el fin de mejorar la precisión del razonamiento. Es ideal para escenarios que requieren razonamiento profundo, como preguntas y respuestas visuales complejas o análisis detallado del contenido de imágenes." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 es la última serie del modelo Qwen, que admite un contexto de 128k. En comparación con los modelos de código abierto más óptimos actuales, Qwen2-72B supera significativamente a los modelos líderes actuales en comprensión del lenguaje natural, conocimiento, código, matemáticas y capacidades multilingües." }, diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 0df2b745404..5500b0f4dcf 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزم‌های پیچیده‌ای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامه‌نویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقه‌های استدلال، ملاحظات ایمنی و تفاوت‌های دیگر در توانایی‌ها وجود دارد." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image یک مدل پایه تولید تصویر است که توسط تیم Tongyi Qianwen شرکت علی‌بابا توسعه یافته و دارای ۲۰ میلیارد پارامتر می‌باشد. این مدل در رندر متون پیچیده و ویرایش دقیق تصاویر پیشرفت‌های چشمگیری داشته و به‌ویژه در تولید تصاویری با متون چینی و انگلیسی با وفاداری بالا بسیار توانمند است. Qwen-Image نه تنها قادر به پردازش چیدمان‌های چندخطی و متون در سطح پاراگراف است، بلکه در حین تولید تصویر، انسجام تایپوگرافی و هماهنگی با زمینه را نیز حفظ می‌کند. افزون بر توانایی برجسته در رندر متن، این مدل از سبک‌های هنری متنوعی پشتیبانی می‌کند؛ از عکس‌های واقع‌گرایانه گرفته تا زیبایی‌شناسی انیمه، و می‌تواند به‌طور انعطاف‌پذیر با نیازهای مختلف خلاقانه سازگار شود. همچنین، این مدل دارای قابلیت‌های قدرتمند در ویرایش و درک تصویر است و از عملیات پیشرفته‌ای مانند انتقال سبک، افزودن یا حذف اشیاء، تقویت جزئیات، ویرایش متن و حتی کنترل حالت بدن انسان پشتیبانی می‌کند. هدف آن تبدیل شدن به یک مدل پایه هوشمند و جامع برای خلق و پردازش بصری است که زبان، چیدمان و تصویر را در هم می‌آمیزد." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 جدیدترین نسخه ویرایش تصویر از مدل Qwen-Image است که توسط تیم Tongyi Qianwen شرکت علی‌بابا منتشر شده است. این مدل بر پایه مدل ۲۰ میلیارد پارامتری Qwen-Image توسعه یافته و با آموزش عمیق، توانایی منحصربه‌فرد خود در رندر متن را به حوزه ویرایش تصویر گسترش داده و امکان ویرایش دقیق متون درون تصویر را فراهم کرده است. Qwen-Image-Edit از معماری نوآورانه‌ای بهره می‌برد که تصویر ورودی را به‌طور هم‌زمان به Qwen2.5-VL (برای کنترل معنایی بصری) و VAE Encoder (برای کنترل ظاهر بصری) ارسال می‌کند و بدین ترتیب توانایی ویرایش دوگانه در سطح معنا و ظاهر را فراهم می‌سازد. این بدان معناست که مدل نه تنها از ویرایش‌های ظاهری موضعی مانند افزودن، حذف یا تغییر عناصر پشتیبانی می‌کند، بلکه قادر به انجام ویرایش‌های معنایی پیشرفته‌ای مانند خلق IP، انتقال سبک و حفظ انسجام معنایی نیز می‌باشد. این مدل در چندین آزمون معیار عمومی عملکردی در سطح پیشرفته (SOTA) از خود نشان داده و به یک مدل پایه قدرتمند در زمینه ویرایش تصویر تبدیل شده است." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen 2 Instruct (72B) دستورالعمل‌های دقیق برای کاربردهای سازمانی ارائه می‌دهد و به درستی به آن‌ها پاسخ می‌دهد." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking مدلی پایه نسل بعدی است که توسط تیم Tongyi Qianwen شرکت علی‌بابا برای وظایف استنتاج پیچیده طراحی شده است. این مدل بر اساس معماری نوآورانه Qwen3-Next ساخته شده که مکانیزم توجه ترکیبی (Gated DeltaNet و Gated Attention) و ساختار متخصص ترکیبی با پراکندگی بالا (MoE) را ادغام می‌کند تا به بالاترین کارایی در آموزش و استنتاج دست یابد. به عنوان یک مدل پراکنده با ۸۰ میلیارد پارامتر کل، در زمان استنتاج تنها حدود ۳ میلیارد پارامتر فعال می‌شوند که هزینه محاسباتی را به طور چشمگیری کاهش می‌دهد و در پردازش وظایف با زمینه طولانی بیش از ۳۲ هزار توکن، توان عملیاتی آن بیش از ۱۰ برابر مدل Qwen3-32B است. این نسخه «Thinking» به طور خاص برای انجام وظایف چندمرحله‌ای دشوار مانند اثبات ریاضی، ترکیب کد، تحلیل منطقی و برنامه‌ریزی بهینه شده و به طور پیش‌فرض فرایند استنتاج را به صورت ساختاریافته و در قالب «زنجیره فکری» ارائه می‌دهد. از نظر عملکرد، این مدل نه تنها از مدل‌های پرهزینه‌تر مانند Qwen3-32B-Thinking پیشی گرفته، بلکه در چندین بنچمارک از Gemini-2.5-Flash-Thinking نیز بهتر عمل می‌کند." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct یکی از مدل‌های زبان-بینایی از سری Qwen3 است که بر پایه Qwen3-8B-Instruct توسعه یافته و با حجم زیادی از داده‌های متنی-تصویری آموزش دیده است. این مدل در درک عمومی بصری، گفت‌وگوهای مبتنی بر تصویر و شناسایی متون چندزبانه در تصاویر مهارت دارد. مناسب برای کاربردهایی مانند پرسش و پاسخ بصری، توصیف تصویر، پیروی از دستورات چندوجهی و فراخوانی ابزارها می‌باشد." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking نسخه تفکر بصری از سری Qwen3 است که برای انجام وظایف پیچیده و چندمرحله‌ای استدلالی بهینه‌سازی شده است. این مدل به‌طور پیش‌فرض پیش از پاسخ‌دهی، زنجیره‌ای از تفکر مرحله‌به‌مرحله تولید می‌کند تا دقت استدلال را افزایش دهد. مناسب برای سناریوهایی است که نیاز به استدلال عمیق در پرسش و پاسخ بصری، بررسی محتوای تصویر و ارائه تحلیل‌های دقیق دارند." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 جدیدترین سری مدل‌های Qwen است که از 128k زمینه پشتیبانی می‌کند. در مقایسه با بهترین مدل‌های متن‌باز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدل‌های پیشرو فعلی فراتر رفته است." }, diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index 0292f9a9f0d..13dcc4ee58b 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview est le dernier modèle de recherche expérimental de Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA. En explorant des mécanismes complexes tels que le mélange de langues et le raisonnement récursif, ses principaux avantages incluent de puissantes capacités d'analyse de raisonnement, ainsi que des compétences en mathématiques et en programmation. Cependant, il existe également des problèmes de changement de langue, des cycles de raisonnement, des considérations de sécurité et des différences dans d'autres capacités." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image est un modèle de base de génération d’images développé par l’équipe Qwen d’Alibaba, doté de 20 milliards de paramètres. Ce modèle a réalisé des avancées significatives dans le rendu complexe de texte et l’édition d’image de haute précision, avec une capacité remarquable à générer des images contenant du texte en chinois et en anglais avec une grande fidélité. Qwen-Image gère non seulement la mise en page sur plusieurs lignes et les textes de niveau paragraphe, mais maintient également la cohérence typographique et l’harmonie contextuelle lors de la génération d’images. En plus de ses performances exceptionnelles en rendu de texte, le modèle prend en charge une large gamme de styles artistiques, allant de la photographie réaliste à l’esthétique anime, s’adaptant avec souplesse à divers besoins créatifs. Il dispose également de puissantes capacités d’édition et de compréhension d’images, permettant des opérations avancées telles que le transfert de style, l’ajout ou la suppression d’objets, l’amélioration des détails, l’édition de texte et même le contrôle de la posture humaine. L’objectif est d’en faire un modèle de base intelligent et polyvalent pour la création et le traitement visuel, intégrant langage, mise en page et image." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 est la dernière version d’édition d’image du modèle Qwen-Image, développée par l’équipe Qwen d’Alibaba. Ce modèle repose sur les 20 milliards de paramètres de Qwen-Image et a été entraîné en profondeur pour étendre ses capacités uniques de rendu de texte au domaine de l’édition d’image, permettant une modification précise du texte dans les images. Qwen-Image-Edit adopte une architecture innovante, envoyant l’image d’entrée simultanément à Qwen2.5-VL (pour le contrôle sémantique visuel) et à un encodeur VAE (pour le contrôle de l’apparence visuelle), offrant ainsi une double capacité d’édition sémantique et visuelle. Cela signifie qu’il prend en charge non seulement les modifications locales de l’apparence telles que l’ajout, la suppression ou la modification d’éléments, mais aussi des éditions sémantiques avancées nécessitant une cohérence conceptuelle, comme la création d’IP ou le transfert de style. Le modèle a démontré des performances de pointe (SOTA) sur plusieurs benchmarks publics, en faisant un modèle de base puissant pour l’édition d’image." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking est un modèle de base de nouvelle génération publié par l'équipe Tongyi Qianwen d'Alibaba, spécialement conçu pour les tâches de raisonnement complexes. Il repose sur l'architecture innovante Qwen3-Next, qui intègre un mécanisme d'attention hybride (Gated DeltaNet et Gated Attention) et une structure d'experts mixtes à haute sparsité (MoE), visant une efficacité extrême en entraînement et inférence. En tant que modèle sparse totalisant 80 milliards de paramètres, il n'active qu'environ 3 milliards de paramètres lors de l'inférence, réduisant significativement les coûts de calcul. Pour les tâches à contexte long dépassant 32K tokens, son débit est plus de 10 fois supérieur à celui du modèle Qwen3-32B. Cette version « Thinking » est optimisée pour exécuter des tâches complexes à étapes multiples telles que preuves mathématiques, synthèse de code, analyse logique et planification, et produit par défaut le processus de raisonnement sous forme structurée de « chaîne de pensée ». En termes de performance, il dépasse non seulement des modèles plus coûteux comme Qwen3-32B-Thinking, mais surpasse également Gemini-2.5-Flash-Thinking sur plusieurs benchmarks." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct est un modèle de langage visuel de la série Qwen3, développé à partir de Qwen3-8B-Instruct et entraîné sur un grand volume de données image-texte. Il excelle dans la compréhension visuelle générale, les dialogues centrés sur l’image et la reconnaissance multilingue de texte dans les images. Il est adapté aux cas d’usage tels que les questions-réponses visuelles, la description d’images, le suivi d’instructions multimodales et l’appel d’outils." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking est la version orientée raisonnement visuel de la série Qwen3, optimisée pour les tâches complexes de raisonnement en plusieurs étapes. Par défaut, il génère une chaîne de réflexion (thinking chain) avant de répondre, afin d’améliorer la précision du raisonnement. Il est particulièrement adapté aux scénarios nécessitant une analyse approfondie, comme les questions-réponses visuelles complexes ou l’examen détaillé du contenu d’une image." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le code, les mathématiques et le multilinguisme." }, diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index 586d69192b7..866ac3037c4 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview è l'ultimo modello di ricerca sperimentale di Qwen, focalizzato sul miglioramento delle capacità di ragionamento dell'IA. Esplorando meccanismi complessi come la mescolanza linguistica e il ragionamento ricorsivo, i principali vantaggi includono potenti capacità di analisi del ragionamento, abilità matematiche e di programmazione. Tuttavia, ci sono anche problemi di cambio linguistico, cicli di ragionamento, considerazioni di sicurezza e differenze in altre capacità." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image è un modello di base per la generazione di immagini sviluppato dal team Tongyi Qianwen di Alibaba, con 20 miliardi di parametri. Il modello ha compiuto notevoli progressi nella resa complessa del testo e nell'editing preciso delle immagini, eccellendo in particolare nella generazione di immagini contenenti testi in cinese e inglese ad alta fedeltà. Qwen-Image è in grado di gestire layout su più righe e testi a livello di paragrafo, mantenendo coerenza tipografica e armonia contestuale durante la generazione delle immagini. Oltre alle sue eccellenti capacità di resa testuale, il modello supporta un'ampia gamma di stili artistici, dalle fotografie realistiche all'estetica anime, adattandosi con flessibilità a diverse esigenze creative. Inoltre, possiede potenti capacità di editing e comprensione delle immagini, supportando operazioni avanzate come trasferimento di stile, aggiunta o rimozione di oggetti, miglioramento dei dettagli, editing del testo e persino manipolazione della postura umana. L'obiettivo è quello di diventare un modello di base completo per la creazione e l'elaborazione visiva intelligente, integrando linguaggio, layout e immagine." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 è l'ultima versione per l'editing di immagini del modello Qwen-Image, rilasciata dal team Tongyi Qianwen di Alibaba. Basato sul modello Qwen-Image da 20 miliardi di parametri, è stato ulteriormente addestrato per estendere le sue eccezionali capacità di resa testuale al campo dell'editing delle immagini, consentendo modifiche precise del testo all'interno delle immagini. Qwen-Image-Edit adotta un'architettura innovativa che invia l'immagine in input sia a Qwen2.5-VL (per il controllo semantico visivo) sia al VAE Encoder (per il controllo dell'aspetto visivo), ottenendo così una doppia capacità di editing semantico e visivo. Questo significa che il modello supporta non solo modifiche locali dell'aspetto, come aggiunta, rimozione o modifica di elementi, ma anche editing semantico avanzato che richiede coerenza concettuale, come la creazione IP o il trasferimento di stile. Il modello ha dimostrato prestazioni all'avanguardia (SOTA) in numerosi benchmark pubblici, rendendolo una potente base per l'editing di immagini." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking è un modello di base di nuova generazione rilasciato dal team Tongyi Qianwen di Alibaba, progettato specificamente per compiti di ragionamento complesso. Basato sull'innovativa architettura Qwen3-Next, che integra un meccanismo di attenzione ibrida (Gated DeltaNet e Gated Attention) e una struttura di esperti misti ad alta sparsità (MoE), mira a massimizzare l'efficienza di addestramento e inferenza. Come modello sparso con un totale di 80 miliardi di parametri, attiva solo circa 3 miliardi di parametri durante l'inferenza, riducendo notevolmente i costi computazionali. Nelle attività con contesti lunghi oltre 32K token, il throughput supera di oltre 10 volte quello del modello Qwen3-32B. Questa versione “Thinking” è ottimizzata per eseguire compiti multi-step complessi come dimostrazioni matematiche, sintesi di codice, analisi logica e pianificazione, e produce di default il processo di ragionamento in forma strutturata di “catena di pensiero”. In termini di prestazioni, supera non solo modelli più costosi come Qwen3-32B-Thinking, ma anche Gemini-2.5-Flash-Thinking in diversi benchmark." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct è un modello linguistico-visivo della serie Qwen3, sviluppato a partire da Qwen3-8B-Instruct e addestrato su un ampio corpus di dati immagine-testo. È specializzato nella comprensione visiva generale, nel dialogo centrato sulla visione e nel riconoscimento multilingue del testo all'interno delle immagini. È adatto a scenari come domande e risposte visive, descrizione di immagini, esecuzione di istruzioni multimodali e utilizzo di strumenti." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking è la versione di ragionamento visivo della serie Qwen3, ottimizzata per compiti complessi di ragionamento multi-step. Per impostazione predefinita, genera una catena di pensiero (thinking chain) prima di rispondere, al fine di migliorare l'accuratezza del ragionamento. È ideale per scenari che richiedono ragionamento approfondito, come domande e risposte visive complesse o analisi dettagliate del contenuto di un'immagine." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue." }, diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 985f27dd1ce..5837604eaf5 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-PreviewはQwenの最新の実験的研究モデルで、AIの推論能力を向上させることに特化しています。言語の混合、再帰的推論などの複雑なメカニズムを探求することで、主な利点は強力な推論分析能力、数学およびプログラミング能力です。同時に、言語切り替えの問題、推論のループ、安全性の考慮、その他の能力の違いも存在します。" }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image は、アリババの通義千問チームによって開発された画像生成の基盤モデルで、200億のパラメータを備えています。このモデルは、複雑なテキストレンダリングや精密な画像編集において顕著な進歩を遂げており、特に高精度な中国語および英語の文字を含む画像の生成に優れています。Qwen-Image は、複数行のレイアウトや段落レベルのテキストにも対応し、画像生成時におけるレイアウトの一貫性と文脈の調和を保つことができます。卓越したテキストレンダリング能力に加え、リアルな写真からアニメ風の美学まで幅広いアートスタイルをサポートし、多様な創作ニーズに柔軟に対応可能です。また、スタイル変換、オブジェクトの追加・削除、ディテールの強化、テキスト編集、人体のポーズ操作などの高度な操作にも対応する強力な画像編集・理解能力を備えており、言語・レイアウト・画像を統合した包括的なインテリジェント視覚創作・処理の基盤モデルを目指しています。" + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 は、アリババの通義千問チームによって開発された Qwen-Image の最新画像編集バージョンです。本モデルは、200億パラメータの Qwen-Image を基に高度なトレーニングを施し、その独自のテキストレンダリング能力を画像編集分野へと拡張することに成功しました。特に、画像内の文字に対する精密な編集が可能です。Qwen-Image-Edit は革新的なアーキテクチャを採用しており、入力画像を Qwen2.5-VL(視覚的意味制御用)と VAE Encoder(視覚的外観制御用)に同時に入力することで、意味と外観の両面における編集能力を実現しています。これにより、要素の追加・削除・変更といった局所的な外観編集だけでなく、IP創作やスタイル変換など、意味の一貫性を保つ高度な視覚的意味編集にも対応可能です。複数の公開ベンチマークにおいて最先端(SOTA)の性能を示しており、強力な画像編集基盤モデルとして位置づけられています。" + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。" }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinkingは、アリババのTongyi Qianwenチームによってリリースされた、複雑な推論タスク向けに設計された次世代基盤モデルです。革新的なQwen3-Nextアーキテクチャに基づき、ハイブリッド注意機構(Gated DeltaNetとGated Attention)と高スパース性混合エキスパート(MoE)構造を融合し、極限のトレーニングおよび推論効率を実現しています。総パラメータ数800億のスパースモデルとして、推論時には約30億パラメータのみを活性化し、計算コストを大幅に削減しています。32Kトークンを超える長文コンテキストタスクの処理においては、Qwen3-32Bモデルと比較してスループットが10倍以上向上しています。この「Thinking」バージョンは、数学的証明、コード合成、論理分析、計画などの高難度多段階タスクの実行に最適化されており、推論過程を構造化された「思考チェーン」形式で出力することをデフォルトとしています。性能面では、Qwen3-32B-Thinkingなどのコストの高いモデルを凌駕し、複数のベンチマークでGemini-2.5-Flash-Thinkingを上回る結果を示しています。" }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct は、Qwen3 シリーズの視覚言語モデルであり、Qwen3-8B-Instruct を基に開発され、大量の画像と言語データでトレーニングされています。一般的な視覚理解、視覚中心の対話、画像内の多言語テキスト認識に優れており、視覚質問応答、画像説明、多モーダル指示の実行やツール呼び出しといったシナリオに適しています。" + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking は、Qwen3 シリーズの視覚的思考モデルであり、複雑なマルチステップ推論タスクに最適化されています。回答の前に段階的な思考プロセス(thinking chain)を生成することで、推論の正確性を高める設計となっています。深い推論が求められる視覚質問応答や、画像内容の精査と詳細な分析が必要なシナリオに適しています。" + }, "Qwen2-72B-Instruct": { "description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを大幅に上回っています。" }, diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 999e52e2456..cd200a239de 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview는 Qwen의 최신 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다. 언어 혼합, 재귀 추론 등 복잡한 메커니즘을 탐구하며, 주요 장점으로는 강력한 추론 분석 능력, 수학 및 프로그래밍 능력이 포함됩니다. 동시에 언어 전환 문제, 추론 루프, 안전성 고려 및 기타 능력 차이와 같은 문제도 존재합니다." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image는 알리바바 통의천문(Qwen) 팀이 개발한 이미지 생성 기반 모델로, 200억 개의 파라미터를 보유하고 있습니다. 이 모델은 복잡한 텍스트 렌더링과 정밀한 이미지 편집에서 뛰어난 성능을 보이며, 특히 고품질의 중·한문 텍스트가 포함된 이미지를 생성하는 데 강점을 가지고 있습니다. Qwen-Image는 다단 레이아웃과 문단 수준의 텍스트도 처리할 수 있으며, 이미지 생성 시 일관된 레이아웃과 자연스러운 문맥을 유지합니다. 탁월한 텍스트 렌더링 능력 외에도, 사실적인 사진부터 애니메이션 미학에 이르기까지 다양한 예술 스타일을 지원하여 창작 요구에 유연하게 대응할 수 있습니다. 또한 스타일 전환, 객체 추가 및 제거, 디테일 향상, 텍스트 편집, 인체 자세 제어 등 고급 이미지 편집 및 이해 기능도 갖추고 있어, 언어·레이아웃·이미지를 통합한 종합적인 지능형 비주얼 창작 및 처리 기반 모델을 지향합니다." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509는 알리바바 통의천문(Qwen) 팀이 개발한 Qwen-Image의 최신 이미지 편집 버전입니다. 이 모델은 200억 파라미터의 Qwen-Image를 기반으로 심화 학습되었으며, 고유한 텍스트 렌더링 능력을 이미지 편집 영역으로 확장하여 이미지 내 텍스트를 정밀하게 편집할 수 있습니다. Qwen-Image-Edit는 혁신적인 아키텍처를 채택하여 입력 이미지를 Qwen2.5-VL(시각적 의미 제어용)과 VAE 인코더(시각적 외형 제어용)에 동시에 입력함으로써 의미와 외형을 모두 편집할 수 있는 이중 편집 능력을 제공합니다. 이는 요소의 추가, 삭제, 수정 등 국소적인 외형 편집뿐만 아니라, IP 창작이나 스타일 전환처럼 의미 일관성을 유지해야 하는 고차원 시각 의미 편집도 가능하다는 것을 의미합니다. 본 모델은 여러 공개 벤치마크에서 최고 수준(SOTA)의 성능을 입증하며, 강력한 이미지 편집 기반 모델로 자리매김하고 있습니다." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking은 알리바바 통의천문 팀이 발표한 복잡한 추론 작업에 특화된 차세대 기본 모델입니다. 혁신적인 Qwen3-Next 아키텍처를 기반으로 하며, 혼합 주의 메커니즘(Gated DeltaNet 및 Gated Attention)과 고희소성 혼합 전문가(MoE) 구조를 융합하여 극대화된 학습 및 추론 효율성을 실현합니다. 총 800억 개의 파라미터를 가진 희소 모델로, 추론 시 약 30억 개의 파라미터만 활성화하여 계산 비용을 크게 줄였으며, 32K 토큰 이상의 긴 문맥 작업 처리 시 Qwen3-32B 모델보다 처리량이 10배 이상 높습니다. 이 'Thinking' 버전은 수학 증명, 코드 합성, 논리 분석 및 계획 등 고난도 다단계 작업 수행에 최적화되어 있으며, 기본적으로 구조화된 '사고 체인' 형태로 추론 과정을 출력합니다. 성능 면에서는 Qwen3-32B-Thinking 등 비용이 더 높은 모델을 능가하며, 여러 벤치마크 테스트에서 Gemini-2.5-Flash-Thinking보다 우수한 성능을 보입니다." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct는 Qwen3 시리즈의 비전-언어 모델로, Qwen3-8B-Instruct를 기반으로 다량의 이미지-텍스트 데이터로 학습되었습니다. 일반적인 시각 이해, 시각 중심의 대화, 이미지 내 다국어 텍스트 인식에 능하며, 시각 질의응답, 이미지 설명, 멀티모달 명령 수행 및 도구 호출 등의 활용 시나리오에 적합합니다." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking은 Qwen3 시리즈의 시각적 사고 특화 버전으로, 복잡한 다단계 추론 작업에 최적화되어 있습니다. 기본적으로 응답 전에 단계별 사고 과정(thinking chain)을 생성하여 추론 정확도를 높입니다. 심층 추론이 필요한 시각 질의응답, 이미지 내용을 검토하고 상세 분석을 제공하는 상황에 적합합니다." + }, "Qwen2-72B-Instruct": { "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 128k 컨텍스트를 지원합니다. 현재 최상의 오픈 소스 모델과 비교할 때, Qwen2-72B는 자연어 이해, 지식, 코드, 수학 및 다국어 등 여러 능력에서 현재 선도하는 모델을 현저히 초월합니다." }, diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 596e0757a39..0f015016a94 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview is het nieuwste experimentele onderzoeksmodel van Qwen, gericht op het verbeteren van AI-redeneringscapaciteiten. Door het verkennen van complexe mechanismen zoals taalmixing en recursieve redenering, zijn de belangrijkste voordelen onder andere krachtige redeneringsanalyses, wiskundige en programmeervaardigheden. Tegelijkertijd zijn er ook problemen met taalwisseling, redeneringscycli, veiligheidskwesties en verschillen in andere capaciteiten." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image is een basisbeeldgeneratiemodel uitgebracht door het Tongyi Qianwen-team van Alibaba, met 20 miljard parameters. Het model heeft aanzienlijke vooruitgang geboekt op het gebied van complexe tekstrendering en nauwkeurige beeldbewerking, en blinkt met name uit in het genereren van afbeeldingen met hoogwaardig Chinees en Engels tekstmateriaal. Qwen-Image kan niet alleen omgaan met meerregelige lay-outs en tekst op alinea-niveau, maar behoudt ook de samenhang van de opmaak en de contextuele harmonie tijdens het genereren van beelden. Naast zijn uitstekende tekstrenderingscapaciteiten ondersteunt het model een breed scala aan artistieke stijlen, van realistische fotografie tot anime-esthetiek, en past het zich flexibel aan verschillende creatieve behoeften aan. Bovendien beschikt het over krachtige mogelijkheden voor beeldbewerking en -begrip, waaronder stijltransfer, objecttoevoeging of -verwijdering, detailverbetering, tekstaanpassing en zelfs manipulatie van lichaamshoudingen. Het is ontworpen als een allesomvattend intelligent visueel creatie- en verwerkingsmodel dat taal, lay-out en beeld integreert." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 is de nieuwste versie van het beeldbewerkingsmodel Qwen-Image, uitgebracht door het Tongyi Qianwen-team van Alibaba. Dit model is verder getraind op basis van het Qwen-Image-model met 20 miljard parameters, en breidt zijn unieke tekstrenderingscapaciteiten succesvol uit naar het domein van beeldbewerking, waardoor nauwkeurige bewerking van tekst in afbeeldingen mogelijk wordt. Qwen-Image-Edit maakt gebruik van een innovatieve architectuur waarbij de invoerafbeelding gelijktijdig wordt verwerkt door Qwen2.5-VL (voor visuele semantische controle) en een VAE-encoder (voor visuele uiterlijkcontrole), wat resulteert in gecombineerde semantische en visuele bewerkingsmogelijkheden. Dit betekent dat het model niet alleen lokale bewerkingen zoals het toevoegen, verwijderen of aanpassen van elementen ondersteunt, maar ook geavanceerde visuele semantische bewerkingen zoals IP-creatie en stijltransfer waarbij semantische consistentie behouden blijft. Het model heeft toonaangevende (SOTA) prestaties laten zien op meerdere openbare benchmarks, en is daarmee een krachtig basisbeeldbewerkingsmodel." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking is een volgende generatie basis model uitgebracht door het Tongyi Qianwen-team van Alibaba, speciaal ontworpen voor complexe redeneertaken. Het is gebaseerd op de innovatieve Qwen3-Next architectuur, die een hybride aandachtmechanisme (Gated DeltaNet en Gated Attention) en een hoog-sparsity Mixture of Experts (MoE) structuur combineert, met als doel ultieme trainings- en inferentie-efficiëntie te bereiken. Als een sparsity model met in totaal 80 miljard parameters, activeert het tijdens inferentie slechts ongeveer 3 miljard parameters, wat de rekenkosten aanzienlijk verlaagt. Bij het verwerken van lange contexttaken van meer dan 32K tokens is de doorvoer meer dan 10 keer hoger dan die van het Qwen3-32B model. Deze \"Thinking\" versie is geoptimaliseerd voor het uitvoeren van wiskundige bewijzen, code synthese, logische analyse en planning, en geeft standaard de redeneerprocessen gestructureerd weer in de vorm van een \"denk-keten\". Qua prestaties overtreft het niet alleen modellen met hogere kosten zoals Qwen3-32B-Thinking, maar presteert het ook beter dan Gemini-2.5-Flash-Thinking in meerdere benchmarktests." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct is een visueel-taalkundig model uit de Qwen3-serie, ontwikkeld op basis van Qwen3-8B-Instruct en getraind op grote hoeveelheden beeld- en tekstdata. Het is bedreven in algemene visuele interpretatie, visueel-centrische dialogen en meertalige tekstherkenning in afbeeldingen. Het is geschikt voor toepassingen zoals visuele vraag-en-antwoord, beeldbeschrijving, multimodale instructievolging en toolaansturing." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking is de visuele redeneerversie van de Qwen3-serie, geoptimaliseerd voor complexe meerstaps redeneertaken. Het genereert standaard een stapsgewijze denkvolgorde (thinking chain) vóór het geven van een antwoord om de nauwkeurigheid van de redenering te verbeteren. Het is geschikt voor scenario's die diepgaande visuele analyse vereisen, zoals visuele vraag-en-antwoord en het beoordelen van beeldinhoud met gedetailleerde uitleg." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat 128k context ondersteunt. In vergelijking met de huidige beste open-source modellen, overtreft Qwen2-72B op het gebied van natuurlijke taalbegrip, kennis, code, wiskunde en meertaligheid aanzienlijk de huidige toonaangevende modellen." }, diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index 204d070e329..f4ae433d51d 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview to najnowszy eksperymentalny model badawczy Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI. Poprzez eksplorację złożonych mechanizmów, takich jak mieszanie języków i wnioskowanie rekurencyjne, główne zalety obejmują silne zdolności analizy wnioskowania, matematyki i programowania. Jednocześnie występują problemy z przełączaniem języków, cyklami wnioskowania, kwestiami bezpieczeństwa oraz różnicami w innych zdolnościach." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image to podstawowy model generowania obrazów opracowany przez zespół Tongyi Qianwen z Alibaba, zawierający 20 miliardów parametrów. Model ten osiągnął znaczące postępy w złożonym renderowaniu tekstu oraz precyzyjnej edycji obrazów, szczególnie wyróżniając się w generowaniu obrazów zawierających teksty w języku chińskim i angielskim o wysokiej wierności. Qwen-Image potrafi nie tylko obsługiwać układy wielowierszowe i teksty na poziomie akapitów, ale także zachowuje spójność typograficzną i kontekstową podczas generowania obrazów. Oprócz doskonałych możliwości renderowania tekstu, model obsługuje szeroką gamę stylów artystycznych – od realistycznych fotografii po estetykę anime – elastycznie dostosowując się do różnych potrzeb twórczych. Ponadto posiada zaawansowane możliwości edycji i rozumienia obrazów, wspierając takie operacje jak transfer stylu, dodawanie i usuwanie obiektów, wzmacnianie detali, edycję tekstu, a nawet manipulację postawą ciała, dążąc do bycia kompleksowym, inteligentnym modelem bazowym do tworzenia i przetwarzania wizualnego, łączącym język, układ i obraz." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 to najnowsza wersja edytora obrazów Qwen-Image, opracowana przez zespół Tongyi Qianwen z Alibaba. Model ten został głęboko wytrenowany na bazie 20-miliardowego modelu Qwen-Image, skutecznie rozszerzając jego unikalne możliwości renderowania tekstu na obszar edycji obrazów, umożliwiając precyzyjną edycję tekstu w obrazach. Qwen-Image-Edit wykorzystuje innowacyjną architekturę, w której obraz wejściowy trafia jednocześnie do Qwen2.5-VL (do kontroli semantyki wizualnej) oraz do VAE Encoder (do kontroli wyglądu wizualnego), co zapewnia podwójną zdolność edycji – zarówno semantyczną, jak i wizualną. Oznacza to, że model obsługuje nie tylko lokalne zmiany wyglądu, takie jak dodawanie, usuwanie czy modyfikacja elementów, ale także zaawansowaną edycję semantyczną, wymagającą spójności znaczeniowej – jak np. tworzenie IP, transfer stylu itp. Model osiąga najwyższe wyniki (SOTA) w wielu publicznych benchmarkach, czyniąc go potężnym podstawowym modelem do edycji obrazów." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking to kolejna generacja modelu bazowego wydanego przez zespół Tongyi Qianwen z Alibaba, specjalnie zaprojektowana do złożonych zadań wnioskowania. Opiera się na innowacyjnej architekturze Qwen3-Next, która łączy hybrydowy mechanizm uwagi (Gated DeltaNet i Gated Attention) oraz wysoko rzadką strukturę ekspertów mieszanych (MoE), dążąc do maksymalnej efektywności treningu i inferencji. Jako model rzadki z 80 miliardami parametrów, podczas inferencji aktywuje jedynie około 3 miliardów parametrów, co znacznie obniża koszty obliczeniowe. Przy zadaniach z bardzo długim kontekstem przekraczającym 32 tysiące tokenów, przepustowość jest ponad 10 razy wyższa niż w modelu Qwen3-32B. Wersja „Thinking” jest zoptymalizowana do wykonywania złożonych, wieloetapowych zadań takich jak dowody matematyczne, synteza kodu, analiza logiczna i planowanie, domyślnie generując proces wnioskowania w ustrukturyzowanej formie łańcucha myślenia. Pod względem wydajności przewyższa modele o wyższych kosztach, takie jak Qwen3-32B-Thinking, a także w wielu benchmarkach jest lepszy od Gemini-2.5-Flash-Thinking." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct to model językowo-wizualny z serii Qwen3, opracowany na bazie Qwen3-8B-Instruct i wytrenowany na dużej ilości danych tekstowo-obrazowych. Wyróżnia się w ogólnym rozumieniu wizualnym, dialogach skoncentrowanych na obrazie oraz rozpoznawaniu tekstu w wielu językach w obrazach. Nadaje się do zastosowań takich jak pytania i odpowiedzi wizualne, opisy obrazów, podążanie za multimodalnymi instrukcjami oraz wywoływanie narzędzi." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking to wersja modelu Qwen3 skoncentrowana na rozumowaniu wizualnym, zoptymalizowana pod kątem złożonych zadań wymagających wieloetapowego wnioskowania. Domyślnie generuje łańcuch myślenia (thinking chain) przed udzieleniem odpowiedzi, aby zwiększyć dokładność rozumowania. Idealnie nadaje się do zastosowań wymagających głębokiej analizy, takich jak pytania i odpowiedzi wizualne czy przegląd treści obrazów z dokładną analizą." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 to najnowsza seria modeli Qwen, obsługująca kontekst 128k. W porównaniu do obecnie najlepszych modeli open source, Qwen2-72B znacznie przewyższa w zakresie rozumienia języka naturalnego, wiedzy, kodowania, matematyki i wielu języków." }, diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 0dcaefdd18c..9cb0e0bd338 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview é o mais recente modelo de pesquisa experimental da Qwen, focado em melhorar a capacidade de raciocínio da IA. Ao explorar mecanismos complexos como mistura de linguagem e raciocínio recursivo, suas principais vantagens incluem forte capacidade de análise de raciocínio, habilidades matemáticas e de programação. Ao mesmo tempo, existem questões de troca de linguagem, ciclos de raciocínio, considerações de segurança e diferenças em outras capacidades." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image é um modelo base de geração de imagens desenvolvido pela equipe Tongyi Qianwen da Alibaba, com 20 bilhões de parâmetros. O modelo apresenta avanços significativos na renderização de texto complexa e na edição precisa de imagens, sendo especialmente eficaz na geração de imagens com textos em chinês e inglês de alta fidelidade. O Qwen-Image é capaz de lidar com layouts de múltiplas linhas e textos em nível de parágrafo, mantendo a coerência tipográfica e a harmonia contextual durante a geração de imagens. Além de sua notável capacidade de renderização de texto, o modelo suporta uma ampla gama de estilos artísticos — desde fotografias realistas até estéticas de anime — adaptando-se com flexibilidade a diversas necessidades criativas. Ele também possui poderosas capacidades de edição e compreensão de imagens, incluindo transferência de estilo, adição e remoção de objetos, aprimoramento de detalhes, edição de texto e até manipulação de poses humanas, com o objetivo de se tornar um modelo base abrangente para criação e processamento visual inteligente que integra linguagem, layout e imagem." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 é a versão mais recente de edição de imagens do Qwen-Image, lançada pela equipe Tongyi Qianwen da Alibaba. Este modelo foi treinado com base no Qwen-Image de 20B parâmetros, expandindo com sucesso sua capacidade única de renderização de texto para o campo da edição de imagens, permitindo edições precisas de textos contidos nas imagens. O Qwen-Image-Edit adota uma arquitetura inovadora que envia a imagem de entrada simultaneamente para o Qwen2.5-VL (para controle semântico visual) e para o VAE Encoder (para controle da aparência visual), oferecendo assim capacidades de edição tanto semânticas quanto visuais. Isso significa que ele não apenas suporta edições locais de aparência, como adição, remoção ou modificação de elementos, mas também edições semânticas visuais avançadas que exigem consistência de significado, como criação de IPs e transferência de estilo. O modelo demonstrou desempenho de ponta (SOTA) em diversos benchmarks públicos, tornando-se uma poderosa base para edição de imagens." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking é o modelo base de próxima geração lançado pela equipe Tongyi Qianwen da Alibaba, projetado para tarefas complexas de raciocínio. Baseado na inovadora arquitetura Qwen3-Next, que integra mecanismos híbridos de atenção (Gated DeltaNet e Gated Attention) e uma estrutura de especialistas mistos altamente esparsos (MoE), busca máxima eficiência em treinamento e inferência. Como um modelo esparso com 80 bilhões de parâmetros totais, ativa apenas cerca de 3 bilhões durante a inferência, reduzindo significativamente o custo computacional. Em tarefas de contexto longo com mais de 32 mil tokens, sua taxa de inferência é mais de 10 vezes superior ao modelo Qwen3-32B. Esta versão “Thinking” é otimizada para executar tarefas complexas de múltiplas etapas, como provas matemáticas, síntese de código, análise lógica e planejamento, e por padrão produz o processo de raciocínio em forma estruturada de “cadeia de pensamento”. Em desempenho, supera modelos mais custosos como o Qwen3-32B-Thinking e também apresenta melhor desempenho que o Gemini-2.5-Flash-Thinking em vários benchmarks." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct é um modelo de linguagem visual da série Qwen3, desenvolvido com base no Qwen3-8B-Instruct e treinado com grandes volumes de dados multimodais. Ele é especializado em compreensão visual geral, diálogos centrados em imagens e reconhecimento multilíngue de texto em imagens. É ideal para tarefas como perguntas e respostas visuais, descrição de imagens, seguimento de instruções multimodais e chamadas de ferramentas." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking é a versão de raciocínio visual da série Qwen3, otimizada para tarefas complexas de raciocínio em múltiplas etapas. Por padrão, o modelo gera uma cadeia de pensamento antes de responder, a fim de melhorar a precisão do raciocínio. É adequado para cenários que exigem raciocínio visual profundo, como perguntas e respostas visuais complexas, revisão de conteúdo de imagens e análises detalhadas." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo." }, diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 80409d43e95..1e19b0ba87f 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview — это последняя экспериментальная исследовательская модель Qwen, сосредоточенная на повышении возможностей вывода ИИ. Исследуя сложные механизмы, такие как смешение языков и рекурсивные выводы, основные преимущества включают мощные аналитические способности, математические и программные навыки. В то же время существуют проблемы с переключением языков, циклом вывода, соображениями безопасности и различиями в других способностях." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image — это базовая модель генерации изображений, разработанная командой Tongyi Qianwen компании Alibaba, содержащая 20 миллиардов параметров. Модель достигла значительных успехов в сложной текстовой визуализации и точном редактировании изображений, особенно хорошо справляется с генерацией изображений с высококачественным текстом на китайском и английском языках. Qwen-Image способна обрабатывать многострочные макеты и текст на уровне абзацев, сохраняя при этом согласованность верстки и контекстную гармонию при генерации изображений. Помимо выдающихся возможностей визуализации текста, модель поддерживает широкий спектр художественных стилей — от фотореализма до аниме-эстетики, гибко адаптируясь к различным творческим задачам. Кроме того, она обладает мощными возможностями редактирования и понимания изображений, поддерживает перенос стиля, добавление и удаление объектов, улучшение деталей, редактирование текста и даже управление позами человека, стремясь стать универсальной интеллектуальной моделью для визуального творчества и обработки, объединяющей язык, макет и изображение." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 — это последняя версия модели редактирования изображений Qwen-Image, выпущенная командой Tongyi Qianwen компании Alibaba. Эта модель была глубоко обучена на основе 20-миллиардной модели Qwen-Image, успешно расширив её уникальные возможности текстовой визуализации в область редактирования изображений, обеспечивая точное редактирование текста на изображениях. Qwen-Image-Edit использует инновационную архитектуру, в которой входное изображение одновременно подаётся в Qwen2.5-VL (для управления визуальной семантикой) и VAE Encoder (для управления визуальным внешним видом), что обеспечивает двойную возможность редактирования как по смыслу, так и по внешнему виду. Это означает, что модель поддерживает не только локальное редактирование внешнего вида, такое как добавление, удаление или изменение элементов, но и высокоуровневое семантическое редактирование, требующее сохранения смысловой целостности, например, для IP-контента или переноса стиля. Модель демонстрирует передовые (SOTA) результаты на множестве открытых бенчмарков, делая её мощной базовой моделью для редактирования изображений." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking — это следующего поколения базовая модель, выпущенная командой Alibaba Tongyi Qianwen, специально разработанная для сложных задач рассуждения. Она основана на инновационной архитектуре Qwen3-Next, которая объединяет гибридный механизм внимания (Gated DeltaNet и Gated Attention) и высокоразреженную структуру смешанных экспертов (MoE), направленную на максимальную эффективность обучения и вывода. Как разреженная модель с общим числом параметров 80 миллиардов, при выводе активируется около 3 миллиардов параметров, что значительно снижает вычислительные затраты. При обработке задач с длинным контекстом более 32K токенов пропускная способность вывода превышает модель Qwen3-32B более чем в 10 раз. Эта версия «Thinking» оптимизирована для выполнения сложных многошаговых задач, таких как математические доказательства, синтез кода, логический анализ и планирование, и по умолчанию выводит процесс рассуждения в структурированной форме «цепочки мышления». По производительности она не только превосходит более дорогие модели, такие как Qwen3-32B-Thinking, но и опережает Gemini-2.5-Flash-Thinking в нескольких бенчмарках." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct — это модель визуально-языкового понимания из серии Qwen3, разработанная на основе Qwen3-8B-Instruct и обученная на большом объёме данных, содержащих изображения и тексты. Она хорошо справляется с задачами общего визуального понимания, визуально-ориентированного диалога и распознавания многоязычного текста на изображениях. Подходит для сценариев визуального вопросно-ответного взаимодействия, описания изображений, следования мультимодальным инструкциям и вызова инструментов." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking — это версия визуального мышления из серии Qwen3, оптимизированная для сложных многошаговых задач рассуждения. По умолчанию она генерирует цепочку размышлений (thinking chain) перед ответом, чтобы повысить точность вывода. Подходит для сценариев, требующих глубокого анализа, таких как визуальные вопросы и ответы, а также детальный обзор и анализ содержимого изображений." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность." }, diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 0732225c9f4..ead12024d66 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview, Qwen'in en son deneysel araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır. Dil karışımı, özyinelemeli akıl yürütme gibi karmaşık mekanizmaları keşfederek, güçlü akıl yürütme analizi, matematik ve programlama yetenekleri gibi ana avantajlar sunmaktadır. Bununla birlikte, dil geçiş sorunları, akıl yürütme döngüleri, güvenlik endişeleri ve diğer yetenek farklılıkları gibi zorluklar da bulunmaktadır." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen bir görsel üretim temel modelidir ve 20 milyar parametreye sahiptir. Bu model, karmaşık metin işleme ve hassas görsel düzenleme konularında önemli ilerlemeler kaydetmiştir; özellikle yüksek doğrulukta Çince ve İngilizce metin içeren görseller üretme konusunda uzmandır. Qwen-Image, çok satırlı düzenler ve paragraf düzeyindeki metinleri işleyebilmenin yanı sıra, görsel üretim sırasında tutarlı bir mizanpaj ve bağlamsal uyum sağlayabilir. Üstün metin işleme yeteneklerinin ötesinde, model gerçekçi fotoğraflardan anime estetiğine kadar geniş bir sanatsal tarz yelpazesini destekler ve çeşitli yaratıcı ihtiyaçlara esnek şekilde uyum sağlar. Ayrıca, stil transferi, nesne ekleme/çıkarma, detay iyileştirme, metin düzenleme ve insan pozu kontrolü gibi gelişmiş işlemleri destekleyen güçlü bir görsel düzenleme ve anlama yeteneğine sahiptir. Qwen-Image, dil, düzen ve görseli bir araya getiren kapsamlı bir akıllı görsel yaratım ve işleme temel modeli olmayı hedeflemektedir." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509, Alibaba Tongyi Qianwen ekibi tarafından geliştirilen Qwen-Image modelinin en son görsel düzenleme versiyonudur. 20 milyar parametreli Qwen-Image modeli temel alınarak derinlemesine eğitilmiş olan bu model, özgün metin işleme yeteneklerini görsel düzenleme alanına başarıyla taşımış ve görsellerdeki metinlerin hassas şekilde düzenlenmesini mümkün kılmıştır. Qwen-Image-Edit, yenilikçi bir mimari kullanarak giriş görselini hem görsel anlamsal kontrol için Qwen2.5-VL’ye hem de görsel görünüm kontrolü için VAE Encoder’a iletir; böylece hem anlamsal hem de görsel düzenleme yeteneklerini bir arada sunar. Bu, yalnızca öğe ekleme, silme veya değiştirme gibi yerel görünüm düzenlemelerini değil, aynı zamanda IP yaratımı ve stil transferi gibi anlamsal tutarlılık gerektiren ileri düzey görsel anlamsal düzenlemeleri de desteklediği anlamına gelir. Model, birçok açık kaynaklı kıyaslama testinde en üst düzey (SOTA) performans sergileyerek güçlü bir görsel düzenleme temel modeli haline gelmiştir." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking, Alibaba Tongyi Qianwen ekibi tarafından karmaşık çıkarım görevleri için tasarlanmış yeni nesil temel modeldir. Yenilikçi Qwen3-Next mimarisi üzerine kurulmuş olup, hibrit dikkat mekanizması (Gated DeltaNet ve Gated Attention) ve yüksek seyrekli hibrit uzman (MoE) yapısını birleştirerek en üst düzey eğitim ve çıkarım verimliliğini hedefler. 80 milyar toplam parametreye sahip seyrek bir model olarak, çıkarım sırasında yalnızca yaklaşık 3 milyar parametreyi aktive ederek hesaplama maliyetlerini önemli ölçüde düşürür ve 32K token’dan uzun bağlam görevlerinde çıkarım verimliliği Qwen3-32B modeline kıyasla 10 kat daha fazladır. Bu “Thinking” versiyonu, matematiksel ispatlar, kod sentezi, mantıksal analiz ve planlama gibi zorlu çok adımlı görevler için optimize edilmiştir ve çıkarım sürecini varsayılan olarak yapılandırılmış “düşünce zinciri” biçiminde sunar. Performans açısından, yalnızca daha maliyetli modeller olan Qwen3-32B-Thinking’i değil, aynı zamanda Gemini-2.5-Flash-Thinking’i de birçok kıyaslama testinde geride bırakır." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct, Qwen3 serisinin bir görsel-dil modelidir. Qwen3-8B-Instruct temel alınarak geliştirilmiş ve büyük miktarda görsel-metin verisiyle eğitilmiştir. Genel görsel anlama, görsel odaklı diyaloglar ve görsellerde çok dilli metin tanıma konularında uzmandır. Görsel soru-cevap, görsel betimleme, çok modlu komut takibi ve araç çağırma gibi senaryolarda kullanılabilir." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking, Qwen3 serisinin görsel düşünme versiyonudur ve karmaşık çok adımlı akıl yürütme görevleri için optimize edilmiştir. Varsayılan olarak, yanıt vermeden önce adım adım düşünme zinciri (thinking chain) oluşturarak akıl yürütme doğruluğunu artırır. Derinlemesine akıl yürütme gerektiren görsel soru-cevap, görsel içerik inceleme ve ayrıntılı analiz sunma gibi senaryolar için uygundur." + }, "Qwen2-72B-Instruct": { "description": "Qwen2, Qwen modelinin en yeni serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler açısından mevcut lider modelleri önemli ölçüde aşmaktadır." }, diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index d63c8489d97..1817b6e5286 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview là mô hình nghiên cứu thử nghiệm mới nhất của Qwen, tập trung vào việc nâng cao khả năng suy luận của AI. Thông qua việc khám phá các cơ chế phức tạp như trộn ngôn ngữ và suy luận đệ quy, những lợi thế chính bao gồm khả năng phân tích suy luận mạnh mẽ, khả năng toán học và lập trình. Tuy nhiên, cũng có những vấn đề về chuyển đổi ngôn ngữ, vòng lặp suy luận, các vấn đề an toàn và sự khác biệt về các khả năng khác." }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image là mô hình nền tạo ảnh do đội ngũ Tongyi Qianwen của Alibaba phát triển, với 20 tỷ tham số. Mô hình này đạt được những tiến bộ đáng kể trong việc hiển thị văn bản phức tạp và chỉnh sửa hình ảnh chính xác, đặc biệt xuất sắc trong việc tạo ra hình ảnh chứa văn bản tiếng Trung và tiếng Anh với độ trung thực cao. Qwen-Image không chỉ xử lý tốt bố cục nhiều dòng và văn bản cấp đoạn, mà còn duy trì sự nhất quán trong bố cục và hài hòa về ngữ cảnh khi tạo ảnh. Bên cạnh khả năng hiển thị văn bản vượt trội, mô hình còn hỗ trợ nhiều phong cách nghệ thuật, từ ảnh hiện thực đến thẩm mỹ anime, linh hoạt đáp ứng các nhu cầu sáng tạo khác nhau. Đồng thời, nó cũng sở hữu khả năng chỉnh sửa và hiểu hình ảnh mạnh mẽ, hỗ trợ các thao tác nâng cao như chuyển đổi phong cách, thêm hoặc xóa đối tượng, tăng cường chi tiết, chỉnh sửa văn bản và điều khiển tư thế cơ thể người, hướng tới việc trở thành một mô hình nền thông minh toàn diện cho sáng tạo và xử lý hình ảnh tích hợp ngôn ngữ, bố cục và thị giác." + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 là phiên bản chỉnh sửa hình ảnh mới nhất của Qwen-Image, được phát hành bởi đội ngũ Tongyi Qianwen của Alibaba. Mô hình này được huấn luyện chuyên sâu dựa trên Qwen-Image với 20 tỷ tham số, mở rộng thành công khả năng hiển thị văn bản độc đáo sang lĩnh vực chỉnh sửa hình ảnh, cho phép chỉnh sửa chính xác văn bản trong ảnh. Ngoài ra, Qwen-Image-Edit áp dụng kiến trúc sáng tạo, đưa hình ảnh đầu vào đồng thời vào Qwen2.5-VL (để kiểm soát ngữ nghĩa thị giác) và VAE Encoder (để kiểm soát diện mạo thị giác), từ đó đạt được khả năng chỉnh sửa kép về ngữ nghĩa và diện mạo. Điều này có nghĩa là mô hình không chỉ hỗ trợ chỉnh sửa cục bộ như thêm, xóa hoặc thay đổi các yếu tố, mà còn hỗ trợ chỉnh sửa ngữ nghĩa thị giác nâng cao như sáng tạo IP, chuyển đổi phong cách mà vẫn giữ được tính nhất quán về ngữ nghĩa. Mô hình đã thể hiện hiệu suất hàng đầu (SOTA) trên nhiều bộ đánh giá công khai, trở thành một mô hình nền chỉnh sửa hình ảnh mạnh mẽ." + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn." }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking là mô hình nền tảng thế hệ tiếp theo do đội ngũ Alibaba Tongyi Qianwen phát hành, được thiết kế chuyên biệt cho các tác vụ suy luận phức tạp. Nó dựa trên kiến trúc sáng tạo Qwen3-Next, kết hợp cơ chế chú ý hỗn hợp (Gated DeltaNet và Gated Attention) và cấu trúc chuyên gia hỗn hợp có độ thưa cao (MoE), nhằm đạt hiệu quả tối ưu trong huấn luyện và suy luận. Là mô hình thưa với tổng số 80 tỷ tham số, nó chỉ kích hoạt khoảng 3 tỷ tham số trong quá trình suy luận, giảm đáng kể chi phí tính toán, và khi xử lý các tác vụ ngữ cảnh dài trên 32K token, thông lượng cao hơn mô hình Qwen3-32B hơn 10 lần. Phiên bản “Thinking” này được tối ưu để thực hiện các tác vụ đa bước khó như chứng minh toán học, tổng hợp mã, phân tích logic và lập kế hoạch, và mặc định xuất ra quá trình suy luận dưới dạng chuỗi suy nghĩ có cấu trúc. Về hiệu năng, nó không chỉ vượt trội so với các mô hình có chi phí cao hơn như Qwen3-32B-Thinking mà còn vượt qua Gemini-2.5-Flash-Thinking trong nhiều bài kiểm tra chuẩn." }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct là mô hình ngôn ngữ thị giác thuộc dòng Qwen3, được phát triển dựa trên Qwen3-8B-Instruct và huấn luyện trên lượng lớn dữ liệu hình ảnh và văn bản. Mô hình này có thế mạnh trong hiểu thị giác tổng quát, đối thoại xoay quanh hình ảnh và nhận diện văn bản đa ngôn ngữ trong ảnh. Phù hợp với các tình huống như hỏi đáp thị giác, mô tả hình ảnh, tuân theo chỉ dẫn đa phương thức và gọi công cụ." + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking là phiên bản tư duy thị giác thuộc dòng Qwen3, được tối ưu hóa cho các nhiệm vụ suy luận đa bước phức tạp. Mặc định mô hình sẽ tạo ra chuỗi suy nghĩ (thinking chain) trước khi trả lời nhằm nâng cao độ chính xác trong suy luận. Phù hợp với các tình huống yêu cầu suy luận sâu như hỏi đáp thị giác, đánh giá nội dung hình ảnh và đưa ra phân tích chi tiết." + }, "Qwen2-72B-Instruct": { "description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ." }, diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index 5ee6c40406f..b3e7a2832f3 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。" }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image 是由阿里巴巴通义千问团队发布的图像生成基础模型,拥有 200 亿参数。该模型在复杂的文本渲染和精确的图像编辑方面取得了显著进展,尤其擅长生成包含高保真度中英文文字的图像。Qwen-Image 不仅能够处理多行布局和段落级文本,还能在生成图像时保持排版的连贯性和上下文的和谐。除了卓越的文本渲染能力,该模型还支持广泛的艺术风格,从写实照片到动漫美学,能够灵活适应各种创作需求。同时,它也具备强大的图像编辑和理解能力,支持风格迁移、物体增删、细节增强、文本编辑乃至人体姿态操控等高级操作,旨在成为一个集语言、布局和图像于一体的综合性智能视觉创作与处理基础模型" + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 是由阿里巴巴通义千问团队发布的 Qwen-Image 的图像编辑最新版本。该模型基于 20B 参数的 Qwen-Image 模型进行深入训练,将其独特的文本渲染能力成功扩展至图像编辑领域,实现了对图片中文字的精准编辑。此外,Qwen-Image-Edit 采用了一种创新的架构,将输入图像同时送入 Qwen2.5-VL(用于视觉语义控制)和 VAE Encoder(用于视觉外观控制),从而兼具语义与外观的双重编辑能力。这意味着它不仅支持元素的添加、删除或修改等局部外观编辑,还支持如 IP 创作、风格迁移等需要保持语义一致性的高阶视觉语义编辑。模型在多个公开基准测试中展现了顶尖(SOTA)的性能,使其成为一个强大的图像编辑基础模型" + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。" }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking 是由阿里巴巴通义千问团队发布的、专为复杂推理任务设计的下一代基础模型。它基于创新的 Qwen3-Next 架构,该架构融合了混合注意力机制(Gated DeltaNet 与 Gated Attention)和高稀疏度混合专家(MoE)结构,旨在实现极致的训练与推理效率。作为一个总参数达 800 亿的稀疏模型,它在推理时仅激活约 30 亿参数,大幅降低了计算成本,在处理超过 32K tokens 的长上下文任务时,吞吐量比 Qwen3-32B 模型高出 10 倍以上。此“Thinking”版本专为执行数学证明、代码综合、逻辑分析和规划等高难度多步任务而优化,并默认以结构化的“思维链”形式输出推理过程。在性能上,它不仅超越了 Qwen3-32B-Thinking 等成本更高的模型,还在多个基准测试中优于 Gemini-2.5-Flash-Thinking。" }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct 是 Qwen3 系列的视觉语言模型,基于 Qwen3-8B-Instruct 开发并在大量图文数据上训练,擅长通用视觉理解、以视觉为中心的对话以及图像中的多语言文本识别。适用于视觉问答、图像描述、多模态指令跟随与工具调用场景。" + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking 是 Qwen3 系列的视觉思考版本,针对复杂多步推理任务优化,默认在回答前生成逐步思考(thinking chain)以提高推理准确性。适合需要深度推理的视觉问答、审阅图像内容并给出详细分析的场景。" + }, "Qwen2-72B-Instruct": { "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。" }, diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index 3d5542fe12a..23085ae472a 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -311,6 +311,12 @@ "Qwen/QwQ-32B-Preview": { "description": "QwQ-32B-Preview是Qwen 最新的實驗性研究模型,專注於提升AI推理能力。通過探索語言混合、遞歸推理等複雜機制,主要優勢包括強大的推理分析能力、數學和編程能力。與此同時,也存在語言切換問題、推理循環、安全性考量、其他能力方面的差異。" }, + "Qwen/Qwen-Image": { + "description": "Qwen-Image 是由阿里巴巴通義千問團隊發布的圖像生成基礎模型,擁有 200 億參數。該模型在複雜的文字渲染與精確的圖像編輯方面取得了顯著進展,特別擅長生成包含高保真中英文文字的圖像。Qwen-Image 不僅能處理多行排版與段落級文字,還能在生成圖像時維持排版的一致性與上下文的協調性。除了卓越的文字渲染能力,該模型還支援多樣的藝術風格,從寫實攝影到動漫美學,能靈活滿足各種創作需求。同時,它也具備強大的圖像編輯與理解能力,支援風格轉換、物件增刪、細節增強、文字編輯甚至人體姿勢操控等進階操作,旨在成為一個融合語言、排版與圖像的綜合性智慧視覺創作與處理基礎模型。" + }, + "Qwen/Qwen-Image-Edit-2509": { + "description": "Qwen-Image-Edit-2509 是由阿里巴巴通義千問團隊發布的 Qwen-Image 圖像編輯最新版本。該模型基於 200 億參數的 Qwen-Image 模型進行深度訓練,成功將其獨特的文字渲染能力擴展至圖像編輯領域,實現對圖片中文字的精準編輯。此外,Qwen-Image-Edit 採用創新的架構,將輸入圖像同時送入 Qwen2.5-VL(用於視覺語意控制)與 VAE 編碼器(用於視覺外觀控制),從而具備語意與外觀的雙重編輯能力。這意味著它不僅支援元素的新增、刪除或修改等局部外觀編輯,還支援如 IP 創作、風格轉換等需保持語意一致性的高階視覺語意編輯。該模型在多個公開基準測試中展現出頂尖(SOTA)表現,使其成為一個強大的圖像編輯基礎模型。" + }, "Qwen/Qwen2-72B-Instruct": { "description": "Qwen2 是先進的通用語言模型,支持多種指令類型。" }, @@ -392,6 +398,12 @@ "Qwen/Qwen3-Next-80B-A3B-Thinking": { "description": "Qwen3-Next-80B-A3B-Thinking 是由阿里巴巴通義千問團隊發布的、專為複雜推理任務設計的下一代基礎模型。它基於創新的 Qwen3-Next 架構,該架構融合了混合注意力機制(Gated DeltaNet 與 Gated Attention)和高稀疏度混合專家(MoE)結構,旨在實現極致的訓練與推理效率。作為一個總參數達 800 億的稀疏模型,它在推理時僅啟動約 30 億參數,大幅降低了計算成本,在處理超過 32K tokens 的長上下文任務時,吞吐量比 Qwen3-32B 模型高出 10 倍以上。此“Thinking”版本專為執行數學證明、程式碼綜合、邏輯分析和規劃等高難度多步任務而優化,並預設以結構化的“思維鏈”形式輸出推理過程。在性能上,它不僅超越了 Qwen3-32B-Thinking 等成本更高的模型,還在多個基準測試中優於 Gemini-2.5-Flash-Thinking。" }, + "Qwen/Qwen3-VL-8B-Instruct": { + "description": "Qwen3-VL-8B-Instruct 是 Qwen3 系列的視覺語言模型,基於 Qwen3-8B-Instruct 開發,並在大量圖文資料上進行訓練,擅長通用視覺理解、以視覺為核心的對話以及圖像中的多語言文字識別。適用於視覺問答、圖像描述、多模態指令跟隨與工具調用等場景。" + }, + "Qwen/Qwen3-VL-8B-Thinking": { + "description": "Qwen3-VL-8B-Thinking 是 Qwen3 系列的視覺思考版本,針對複雜多步推理任務進行優化,預設在回答前生成逐步思考(thinking chain),以提升推理準確性。適合需要深度推理的視覺問答、審閱圖像內容並提供詳細分析的場景。" + }, "Qwen2-72B-Instruct": { "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。" }, From 12f54759dfc755ca6d187ebe22dbb7f936974350 Mon Sep 17 00:00:00 2001 From: sxjeru Date: Mon, 20 Oct 2025 10:40:53 +0800 Subject: [PATCH 2/6] =?UTF-8?q?=F0=9F=94=A8=20chore:=20Enable=20webpackBui?= =?UTF-8?q?ldWorker=20to=20optimize=20build=20memory=20(#9350)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Enable webpackBuildWorker in next.config.ts --- next.config.ts | 1 + 1 file changed, 1 insertion(+) diff --git a/next.config.ts b/next.config.ts index 82b5d8fe4a6..b1f2ff7bf08 100644 --- a/next.config.ts +++ b/next.config.ts @@ -47,6 +47,7 @@ const nextConfig: NextConfig = { // refs: https://github.com/lobehub/lobe-chat/pull/7430 serverMinification: false, webVitalsAttribution: ['CLS', 'LCP'], + webpackBuildWorker: true, webpackMemoryOptimizations: true, }, async headers() { From 6d14dfe50d3b9543e83b5172ac6f7b195f66144c Mon Sep 17 00:00:00 2001 From: jjangga0214 Date: Mon, 20 Oct 2025 11:42:33 +0900 Subject: [PATCH 3/6] =?UTF-8?q?=E2=99=BB=EF=B8=8F=20refactor(i18n):=20rm?= =?UTF-8?q?=20qa=20(#9783)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- locales/ar/welcome.json | 17 ----------------- locales/bg-BG/welcome.json | 17 ----------------- locales/de-DE/welcome.json | 17 ----------------- locales/en-US/welcome.json | 17 ----------------- locales/es-ES/welcome.json | 17 ----------------- locales/fa-IR/welcome.json | 17 ----------------- locales/fr-FR/welcome.json | 17 ----------------- locales/it-IT/welcome.json | 17 ----------------- locales/ja-JP/welcome.json | 17 ----------------- locales/ko-KR/welcome.json | 17 ----------------- locales/nl-NL/welcome.json | 17 ----------------- locales/pl-PL/welcome.json | 17 ----------------- locales/pt-BR/welcome.json | 17 ----------------- locales/ru-RU/welcome.json | 17 ----------------- locales/tr-TR/welcome.json | 17 ----------------- locales/vi-VN/welcome.json | 17 ----------------- locales/zh-CN/welcome.json | 17 ----------------- locales/zh-TW/welcome.json | 17 ----------------- src/locales/default/welcome.ts | 17 ----------------- 19 files changed, 323 deletions(-) diff --git a/locales/ar/welcome.json b/locales/ar/welcome.json index a32110c49eb..76082bc67ca 100644 --- a/locales/ar/welcome.json +++ b/locales/ar/welcome.json @@ -340,23 +340,6 @@ "title": "دائرة الكتابة" } }, - "qa": { - "q01": "ما هو LobeHub؟", - "q02": "ما هو {{appName}}؟", - "q03": "هل يوجد دعم مجتمعي لـ {{appName}}؟", - "q04": "ما هي الميزات التي يدعمها {{appName}}؟", - "q05": "كيف يمكن نشر واستخدام {{appName}}؟", - "q06": "كيف يتم تسعير {{appName}}؟", - "q07": "هل {{appName}} مجاني؟", - "q08": "هل هناك نسخة سحابية؟", - "q09": "هل يدعم نماذج اللغة المحلية؟", - "q10": "هل يدعم التعرف على الصور وتوليدها؟", - "q11": "هل يدعم تحويل النص إلى كلام والتعرف على الصوت؟", - "q12": "هل يدعم نظام الإضافات؟", - "q13": "هل يوجد سوق خاص للحصول على GPTs؟", - "q14": "هل يدعم مزودي خدمات الذكاء الاصطناعي المتعددين؟", - "q15": "ماذا يجب أن أفعل إذا واجهت مشكلة أثناء الاستخدام؟" - }, "questions": { "moreBtn": "معرفة المزيد", "title": "جرّب أن تسأل:" diff --git a/locales/bg-BG/welcome.json b/locales/bg-BG/welcome.json index c82722811e9..dddcd6c5d9c 100644 --- a/locales/bg-BG/welcome.json +++ b/locales/bg-BG/welcome.json @@ -340,23 +340,6 @@ "title": "Кръг на писателите" } }, - "qa": { - "q01": "Какво е LobeHub?", - "q02": "Какво е {{appName}}?", - "q03": "Има ли общностна поддръжка за {{appName}}?", - "q04": "Какви функции поддържа {{appName}}?", - "q05": "Как да инсталирам и използвам {{appName}}?", - "q06": "Каква е ценовата политика на {{appName}}?", - "q07": "Дали {{appName}} е безплатен?", - "q08": "Има ли облачна версия на услугата?", - "q09": "Поддържа ли локални езикови модели?", - "q10": "Поддържа ли разпознаване и генериране на изображения?", - "q11": "Поддържа ли синтез на реч и разпознаване на реч?", - "q12": "Поддържа ли система за плъгини?", - "q13": "Има ли собствен пазар за получаване на GPTs?", - "q14": "Поддържа ли различни доставчици на AI услуги?", - "q15": "Какво да направя, ако срещна проблеми при използването?" - }, "questions": { "moreBtn": "Научи повече", "title": "Опитайте да попитате:" diff --git a/locales/de-DE/welcome.json b/locales/de-DE/welcome.json index ab6ab76d144..8d8b342d4c2 100644 --- a/locales/de-DE/welcome.json +++ b/locales/de-DE/welcome.json @@ -340,23 +340,6 @@ "title": "Schreibteam" } }, - "qa": { - "q01": "Was ist LobeHub?", - "q02": "Was ist {{appName}}?", - "q03": "Hat {{appName}} Community-Support?", - "q04": "Welche Funktionen unterstützt {{appName}}?", - "q05": "Wie wird {{appName}} bereitgestellt und verwendet?", - "q06": "Wie ist die Preisgestaltung von {{appName}}?", - "q07": "Ist {{appName}} kostenlos?", - "q08": "Gibt es eine Cloud-Service-Version?", - "q09": "Unterstützt es lokale Sprachmodelle?", - "q10": "Unterstützt es Bildverarbeitung und -erzeugung?", - "q11": "Unterstützt es Sprachsynthese und Spracherkennung?", - "q12": "Unterstützt es ein Plug-in-System?", - "q13": "Gibt es einen eigenen Marktplatz für GPTs?", - "q14": "Unterstützt es mehrere AI-Dienstanbieter?", - "q15": "Was soll ich tun, wenn ich Probleme bei der Nutzung habe?" - }, "questions": { "moreBtn": "Mehr erfahren", "title": "Versuchen Sie zu fragen:" diff --git a/locales/en-US/welcome.json b/locales/en-US/welcome.json index 3f8f6e1e263..92ef1dc0ae6 100644 --- a/locales/en-US/welcome.json +++ b/locales/en-US/welcome.json @@ -340,23 +340,6 @@ "title": "Writing Circle" } }, - "qa": { - "q01": "What is LobeHub?", - "q02": "What is {{appName}}?", - "q03": "Does {{appName}} have community support?", - "q04": "What features does {{appName}} support?", - "q05": "How do I deploy and use {{appName}}?", - "q06": "What is the pricing for {{appName}}?", - "q07": "Is {{appName}} free?", - "q08": "Is there a cloud service version available?", - "q09": "Does it support local language models?", - "q10": "Does it support image recognition and generation?", - "q11": "Does it support speech synthesis and speech recognition?", - "q12": "Does it support a plugin system?", - "q13": "Is there a marketplace to acquire GPTs?", - "q14": "Does it support multiple AI service providers?", - "q15": "What should I do if I encounter issues while using it?" - }, "questions": { "moreBtn": "Learn More", "title": "Try asking:" diff --git a/locales/es-ES/welcome.json b/locales/es-ES/welcome.json index dfbdd7fa369..48eb3d3e542 100644 --- a/locales/es-ES/welcome.json +++ b/locales/es-ES/welcome.json @@ -340,23 +340,6 @@ "title": "Círculo de escritura" } }, - "qa": { - "q01": "¿Qué es LobeHub?", - "q02": "¿Qué es {{appName}}?", - "q03": "¿{{appName}} tiene soporte comunitario?", - "q04": "¿Qué funciones soporta {{appName}}?", - "q05": "¿Cómo se despliega y utiliza {{appName}}?", - "q06": "¿Cuál es el precio de {{appName}}?", - "q07": "¿{{appName}} es gratuito?", - "q08": "¿Hay una versión en la nube?", - "q09": "¿Soporta modelos de lenguaje locales?", - "q10": "¿Soporta reconocimiento y generación de imágenes?", - "q11": "¿Soporta síntesis de voz y reconocimiento de voz?", - "q12": "¿Soporta un sistema de plugins?", - "q13": "¿Tiene su propio mercado para obtener GPTs?", - "q14": "¿Soporta múltiples proveedores de servicios de IA?", - "q15": "¿Qué debo hacer si tengo problemas al usarlo?" - }, "questions": { "moreBtn": "Saber más", "title": "Intenta preguntar:" diff --git a/locales/fa-IR/welcome.json b/locales/fa-IR/welcome.json index dad2ebff6c8..bd68f718dfb 100644 --- a/locales/fa-IR/welcome.json +++ b/locales/fa-IR/welcome.json @@ -340,23 +340,6 @@ "title": "حلقه نویسندگی" } }, - "qa": { - "q01": "LobeHub چیست؟", - "q02": "{{appName}} چیست؟", - "q03": "آیا {{appName}} پشتیبانی جامعه دارد؟", - "q04": "{{appName}} چه قابلیت‌هایی دارد؟", - "q05": "چگونه می‌توان {{appName}} را مستقر و استفاده کرد؟", - "q06": "قیمت‌گذاری {{appName}} چگونه است؟", - "q07": "آیا {{appName}} رایگان است؟", - "q08": "آیا نسخه ابری وجود دارد؟", - "q09": "آیا از مدل‌های زبانی محلی پشتیبانی می‌شود؟", - "q10": "آیا از تشخیص و تولید تصویر پشتیبانی می‌شود؟", - "q11": "آیا از تبدیل متن به گفتار و تشخیص گفتار پشتیبانی می‌شود؟", - "q12": "آیا از سیستم افزونه‌ها پشتیبانی می‌شود؟", - "q13": "آیا بازار مخصوصی برای دریافت GPTها وجود دارد؟", - "q14": "آیا از چندین ارائه‌دهنده خدمات هوش مصنوعی پشتیبانی می‌شود؟", - "q15": "اگر در حین استفاده با مشکلی مواجه شدم، چه کاری باید انجام دهم؟" - }, "questions": { "moreBtn": "بیشتر بدانید", "title": "سعی کن بپرسی:" diff --git a/locales/fr-FR/welcome.json b/locales/fr-FR/welcome.json index a608a602791..39e282fe4ce 100644 --- a/locales/fr-FR/welcome.json +++ b/locales/fr-FR/welcome.json @@ -340,23 +340,6 @@ "title": "Cercle d'écriture" } }, - "qa": { - "q01": "Qu'est-ce que LobeHub ?", - "q02": "Qu'est-ce que {{appName}} ?", - "q03": "{{appName}} a-t-il un support communautaire ?", - "q04": "Quelles fonctionnalités {{appName}} prend-il en charge ?", - "q05": "Comment déployer et utiliser {{appName}} ?", - "q06": "Quel est le prix de {{appName}} ?", - "q07": "{{appName}} est-il gratuit ?", - "q08": "Y a-t-il une version cloud ?", - "q09": "Prend-il en charge les modèles de langue locaux ?", - "q10": "Prend-il en charge la reconnaissance et la génération d'images ?", - "q11": "Prend-il en charge la synthèse vocale et la reconnaissance vocale ?", - "q12": "Prend-il en charge un système de plugins ?", - "q13": "Y a-t-il un marché pour obtenir des GPTs ?", - "q14": "Prend-il en charge plusieurs fournisseurs de services d'IA ?", - "q15": "Que dois-je faire si je rencontre des problèmes lors de l'utilisation ?" - }, "questions": { "moreBtn": "En savoir plus", "title": "Essayez de demander :" diff --git a/locales/it-IT/welcome.json b/locales/it-IT/welcome.json index 05102845437..7cacf2bdf44 100644 --- a/locales/it-IT/welcome.json +++ b/locales/it-IT/welcome.json @@ -340,23 +340,6 @@ "title": "Cerchia di scrittura" } }, - "qa": { - "q01": "Che cos'è LobeHub?", - "q02": "Che cos'è {{appName}}?", - "q03": "{{appName}} ha supporto della comunità?", - "q04": "Quali funzionalità supporta {{appName}}?", - "q05": "Come si installa e utilizza {{appName}}?", - "q06": "Qual è il prezzo di {{appName}}?", - "q07": "{{appName}} è gratuito?", - "q08": "Esiste una versione cloud?", - "q09": "Supporta modelli di linguaggio locali?", - "q10": "Supporta il riconoscimento e la generazione di immagini?", - "q11": "Supporta la sintesi vocale e il riconoscimento vocale?", - "q12": "Supporta un sistema di plugin?", - "q13": "C'è un mercato per ottenere GPT?", - "q14": "Supporta diversi fornitori di servizi AI?", - "q15": "Cosa devo fare se riscontro problemi durante l'uso?" - }, "questions": { "moreBtn": "Scopri di più", "title": "Prova a chiedere:" diff --git a/locales/ja-JP/welcome.json b/locales/ja-JP/welcome.json index 4bab6018152..1b3b765624b 100644 --- a/locales/ja-JP/welcome.json +++ b/locales/ja-JP/welcome.json @@ -340,23 +340,6 @@ "title": "ライティングチーム" } }, - "qa": { - "q01": "LobeHub とは何ですか?", - "q02": "{{appName}} とは何ですか?", - "q03": "{{appName}} にはコミュニティサポートがありますか?", - "q04": "{{appName}} はどのような機能をサポートしていますか?", - "q05": "{{appName}} はどのように展開して使用しますか?", - "q06": "{{appName}} の価格はどのようになっていますか?", - "q07": "{{appName}} は無料ですか?", - "q08": "クラウドサービス版はありますか?", - "q09": "ローカル言語モデルはサポートされていますか?", - "q10": "画像認識と生成はサポートされていますか?", - "q11": "音声合成と音声認識はサポートされていますか?", - "q12": "プラグインシステムはサポートされていますか?", - "q13": "GPTを取得するための独自のマーケットプレイスはありますか?", - "q14": "複数のAIサービスプロバイダーをサポートしていますか?", - "q15": "使用中に問題が発生した場合はどうすればよいですか?" - }, "questions": { "moreBtn": "さらに詳しく", "title": "試しに聞いてみましょう:" diff --git a/locales/ko-KR/welcome.json b/locales/ko-KR/welcome.json index dc39522e411..a612caf0d6d 100644 --- a/locales/ko-KR/welcome.json +++ b/locales/ko-KR/welcome.json @@ -340,23 +340,6 @@ "title": "글쓰기 그룹" } }, - "qa": { - "q01": "LobeHub란 무엇인가요?", - "q02": "{{appName}}란 무엇인가요?", - "q03": "{{appName}}는 커뮤니티 지원이 있나요?", - "q04": "{{appName}}는 어떤 기능을 지원하나요?", - "q05": "{{appName}}는 어떻게 배포하고 사용하나요?", - "q06": "{{appName}}의 가격은 어떻게 되나요?", - "q07": "{{appName}}는 무료인가요?", - "q08": "클라우드 서비스 버전이 있나요?", - "q09": "로컬 언어 모델을 지원하나요?", - "q10": "이미지 인식 및 생성 기능을 지원하나요?", - "q11": "음성 합성 및 음성 인식을 지원하나요?", - "q12": "플러그인 시스템을 지원하나요?", - "q13": "GPT를 얻기 위한 자체 마켓이 있나요?", - "q14": "여러 AI 서비스 제공업체를 지원하나요?", - "q15": "사용 중 문제가 발생하면 어떻게 해야 하나요?" - }, "questions": { "moreBtn": "더 알아보기", "title": "다음과 같이 질문해 보세요:" diff --git a/locales/nl-NL/welcome.json b/locales/nl-NL/welcome.json index b474fb8baa5..88c1a11277b 100644 --- a/locales/nl-NL/welcome.json +++ b/locales/nl-NL/welcome.json @@ -340,23 +340,6 @@ "title": "Schrijfkring" } }, - "qa": { - "q01": "Wat is LobeHub?", - "q02": "Wat is {{appName}}?", - "q03": "Heeft {{appName}} ondersteuning van de gemeenschap?", - "q04": "Welke functies ondersteunt {{appName}}?", - "q05": "Hoe wordt {{appName}} geïmplementeerd en gebruikt?", - "q06": "Wat zijn de prijzen van {{appName}}?", - "q07": "Is {{appName}} gratis?", - "q08": "Is er een cloudversie beschikbaar?", - "q09": "Ondersteunt het lokale taalmodellen?", - "q10": "Ondersteunt het beeldherkenning en -generatie?", - "q11": "Ondersteunt het spraaksynthese en spraakherkenning?", - "q12": "Ondersteunt het een plug-insysteem?", - "q13": "Is er een eigen markt om GPT's te verkrijgen?", - "q14": "Ondersteunt het meerdere AI-dienstverleners?", - "q15": "Wat moet ik doen als ik problemen ondervind tijdens het gebruik?" - }, "questions": { "moreBtn": "Meer informatie", "title": "Probeer te vragen:" diff --git a/locales/pl-PL/welcome.json b/locales/pl-PL/welcome.json index d4f2684b0b1..e8ce4ad4180 100644 --- a/locales/pl-PL/welcome.json +++ b/locales/pl-PL/welcome.json @@ -340,23 +340,6 @@ "title": "Krąg pisarski" } }, - "qa": { - "q01": "Czym jest LobeHub?", - "q02": "Czym jest {{appName}}?", - "q03": "Czy {{appName}} ma wsparcie społeczności?", - "q04": "Jakie funkcje wspiera {{appName}}?", - "q05": "Jak wdrożyć i używać {{appName}}?", - "q06": "Jakie są ceny {{appName}}?", - "q07": "Czy {{appName}} jest darmowy?", - "q08": "Czy dostępna jest wersja w chmurze?", - "q09": "Czy wspiera lokalne modele językowe?", - "q10": "Czy wspiera rozpoznawanie i generowanie obrazów?", - "q11": "Czy wspiera syntezę mowy i rozpoznawanie mowy?", - "q12": "Czy wspiera system wtyczek?", - "q13": "Czy ma własny rynek do pozyskiwania GPT-ów?", - "q14": "Czy wspiera wielu dostawców usług AI?", - "q15": "Co powinienem zrobić, jeśli napotkam problemy podczas korzystania?" - }, "questions": { "moreBtn": "Dowiedz się więcej", "title": "Spróbuj zapytać:" diff --git a/locales/pt-BR/welcome.json b/locales/pt-BR/welcome.json index 571415ec24c..a697cd525ee 100644 --- a/locales/pt-BR/welcome.json +++ b/locales/pt-BR/welcome.json @@ -340,23 +340,6 @@ "title": "Círculo de Escrita" } }, - "qa": { - "q01": "O que é o LobeHub?", - "q02": "O que é {{appName}}?", - "q03": "{{appName}} tem suporte da comunidade?", - "q04": "Quais funcionalidades {{appName}} suporta?", - "q05": "Como implantar e usar {{appName}}?", - "q06": "Como é a precificação do {{appName}}?", - "q07": "{{appName}} é gratuito?", - "q08": "Há uma versão em nuvem disponível?", - "q09": "Suporta modelos de linguagem locais?", - "q10": "Suporta reconhecimento e geração de imagens?", - "q11": "Suporta síntese de voz e reconhecimento de voz?", - "q12": "Suporta sistema de plugins?", - "q13": "Há um mercado próprio para obter GPTs?", - "q14": "Suporta vários provedores de serviços de IA?", - "q15": "O que devo fazer se encontrar problemas ao usar?" - }, "questions": { "moreBtn": "Saiba mais", "title": "Tente perguntar:" diff --git a/locales/ru-RU/welcome.json b/locales/ru-RU/welcome.json index 1641866f795..68072253c5a 100644 --- a/locales/ru-RU/welcome.json +++ b/locales/ru-RU/welcome.json @@ -340,23 +340,6 @@ "title": "Круг писателей" } }, - "qa": { - "q01": "Что такое LobeHub?", - "q02": "Что такое {{appName}}?", - "q03": "Есть ли у {{appName}} поддержка сообщества?", - "q04": "Какие функции поддерживает {{appName}}?", - "q05": "Как развернуть и использовать {{appName}}?", - "q06": "Какова цена {{appName}}?", - "q07": "Является ли {{appName}} бесплатным?", - "q08": "Существует ли облачная версия?", - "q09": "Поддерживает ли {{appName}} локальные языковые модели?", - "q10": "Поддерживает ли {{appName}} распознавание и генерацию изображений?", - "q11": "Поддерживает ли {{appName}} синтез речи и распознавание речи?", - "q12": "Поддерживает ли {{appName}} систему плагинов?", - "q13": "Есть ли у {{appName}} собственный рынок для получения GPT?", - "q14": "Поддерживает ли {{appName}} несколько поставщиков AI услуг?", - "q15": "Что делать, если я столкнулся с проблемой при использовании?" - }, "questions": { "moreBtn": "Узнать больше", "title": "Попробуйте спросить:" diff --git a/locales/tr-TR/welcome.json b/locales/tr-TR/welcome.json index 969d63a3a76..db33b8b1c1c 100644 --- a/locales/tr-TR/welcome.json +++ b/locales/tr-TR/welcome.json @@ -340,23 +340,6 @@ "title": "Yazım Çemberi" } }, - "qa": { - "q01": "LobeHub nedir?", - "q02": "{{appName}} nedir?", - "q03": "{{appName}}'in topluluk desteği var mı?", - "q04": "{{appName}} hangi özellikleri destekliyor?", - "q05": "{{appName}} nasıl dağıtılır ve kullanılır?", - "q06": "{{appName}}'in fiyatlandırması nasıldır?", - "q07": "{{appName}} ücretsiz mi?", - "q08": "Bulut hizmeti versiyonu var mı?", - "q09": "Yerel dil modellerini destekliyor mu?", - "q10": "Görüntü tanıma ve oluşturma destekleniyor mu?", - "q11": "Ses sentezi ve ses tanıma destekleniyor mu?", - "q12": "Eklenti sistemi destekleniyor mu?", - "q13": "GPT'leri almak için kendi pazarımız var mı?", - "q14": "Birden fazla AI hizmet sağlayıcısını destekliyor mu?", - "q15": "Kullanım sırasında sorun yaşarsam ne yapmalıyım?" - }, "questions": { "moreBtn": "Daha Fazla Bilgi", "title": "Şunu sormayı deneyin:" diff --git a/locales/vi-VN/welcome.json b/locales/vi-VN/welcome.json index dd6fb1b7868..efc87c6d3cd 100644 --- a/locales/vi-VN/welcome.json +++ b/locales/vi-VN/welcome.json @@ -340,23 +340,6 @@ "title": "Cộng đồng viết" } }, - "qa": { - "q01": "LobeHub là gì?", - "q02": "{{appName}} là gì?", - "q03": "{{appName}} có hỗ trợ cộng đồng không?", - "q04": "{{appName}} hỗ trợ những tính năng nào?", - "q05": "{{appName}} được triển khai và sử dụng như thế nào?", - "q06": "Giá cả của {{appName}} như thế nào?", - "q07": "{{appName}} có miễn phí không?", - "q08": "Có phiên bản dịch vụ đám mây không?", - "q09": "Có hỗ trợ mô hình ngôn ngữ địa phương không?", - "q10": "Có hỗ trợ nhận diện và tạo hình ảnh không?", - "q11": "Có hỗ trợ tổng hợp giọng nói và nhận diện giọng nói không?", - "q12": "Có hỗ trợ hệ thống plugin không?", - "q13": "Có thị trường riêng để lấy GPTs không?", - "q14": "Có hỗ trợ nhiều nhà cung cấp dịch vụ AI không?", - "q15": "Tôi nên làm gì nếu gặp vấn đề khi sử dụng?" - }, "questions": { "moreBtn": "Tìm hiểu thêm", "title": "Hãy thử hỏi:" diff --git a/locales/zh-CN/welcome.json b/locales/zh-CN/welcome.json index 62d8f0b5b95..10752cb09ad 100644 --- a/locales/zh-CN/welcome.json +++ b/locales/zh-CN/welcome.json @@ -345,23 +345,6 @@ "title": "写作圈" } }, - "qa": { - "q01": "LobeHub 是什么?", - "q02": "{{appName}} 是什么?", - "q03": "{{appName}} 是否有社区支持?", - "q04": "{{appName}} 支持哪些功能?", - "q05": "{{appName}} 如何部署和使用?", - "q06": "{{appName}} 的定价是如何的?", - "q07": "{{appName}} 是否免费?", - "q08": "是否有云端服务版?", - "q09": "是否支持本地语言模型?", - "q10": "是否支持图像识别和生成?", - "q11": "是否支持语音合成和语音识别?", - "q12": "是否支持插件系统?", - "q13": "是否有自己的市场来获取 GPTs?", - "q14": "是否支持多种 AI 服务提供商?", - "q15": "我在使用时遇到问题应该怎么办?" - }, "questions": { "moreBtn": "了解更多", "title": "试着问问:" diff --git a/locales/zh-TW/welcome.json b/locales/zh-TW/welcome.json index eea856feebc..fd07c8d85d6 100644 --- a/locales/zh-TW/welcome.json +++ b/locales/zh-TW/welcome.json @@ -340,23 +340,6 @@ "title": "寫作圈" } }, - "qa": { - "q01": "LobeHub 是什麼?", - "q02": "{{appName}} 是什麼?", - "q03": "{{appName}} 是否有社群支持?", - "q04": "{{appName}} 支持哪些功能?", - "q05": "{{appName}} 如何部署和使用?", - "q06": "{{appName}} 的定價是如何的?", - "q07": "{{appName}} 是否免費?", - "q08": "是否有雲端服務版?", - "q09": "是否支持本地語言模型?", - "q10": "是否支持圖像識別和生成?", - "q11": "是否支持語音合成和語音識別?", - "q12": "是否支持插件系統?", - "q13": "是否有自己的市場來獲取 GPTs?", - "q14": "是否支持多種 AI 服務提供商?", - "q15": "我在使用時遇到問題應該怎麼辦?" - }, "questions": { "moreBtn": "了解更多", "title": "試著問問:" diff --git a/src/locales/default/welcome.ts b/src/locales/default/welcome.ts index 51f591443bb..601bfc7d6ae 100644 --- a/src/locales/default/welcome.ts +++ b/src/locales/default/welcome.ts @@ -362,23 +362,6 @@ export default { title: '写作圈', }, }, - qa: { - q01: 'LobeHub 是什么?', - q02: '{{appName}} 是什么?', - q03: '{{appName}} 是否有社区支持?', - q04: '{{appName}} 支持哪些功能?', - q05: '{{appName}} 如何部署和使用?', - q06: '{{appName}} 的定价是如何的?', - q07: '{{appName}} 是否免费?', - q08: '是否有云端服务版?', - q09: '是否支持本地语言模型?', - q10: '是否支持图像识别和生成?', - q11: '是否支持语音合成和语音识别?', - q12: '是否支持插件系统?', - q13: '是否有自己的市场来获取 GPTs?', - q14: '是否支持多种 AI 服务提供商?', - q15: '我在使用时遇到问题应该怎么办?', - }, questions: { moreBtn: '了解更多', title: '试着问问:', From 5f10aace5be5101b6ca0e7ad836ff5ec6e7c42fc Mon Sep 17 00:00:00 2001 From: jjangga0214 Date: Mon, 20 Oct 2025 11:44:35 +0900 Subject: [PATCH 4/6] =?UTF-8?q?=F0=9F=91=B7=20build(deps):=20add=20transit?= =?UTF-8?q?ive=20phantom=20dependencies=20(#9784)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- package.json | 2 ++ 1 file changed, 2 insertions(+) diff --git a/package.json b/package.json index c2ebd60e210..afbe27a36ec 100644 --- a/package.json +++ b/package.json @@ -172,6 +172,8 @@ "@modelcontextprotocol/sdk": "^1.20.0", "@neondatabase/serverless": "^1.0.2", "@next/third-parties": "^15.5.4", + "@opentelemetry/exporter-jaeger": "^2.1.0", + "@opentelemetry/winston-transport": "^0.17.0", "@react-spring/web": "^9.7.5", "@serwist/next": "^9.2.1", "@t3-oss/env-nextjs": "^0.13.8", From 7f9bfda652c9b1b96280d095e1a877f157004715 Mon Sep 17 00:00:00 2001 From: semantic-release-bot Date: Mon, 20 Oct 2025 02:54:52 +0000 Subject: [PATCH 5/6] :bookmark: chore(release): v1.139.1 [skip ci] MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit ### [Version 1.139.1](https://github.com/lobehub/lobe-chat/compare/v1.139.0...v1.139.1) Released on **2025-10-20** #### ♻ Code Refactoring - **i18n**: Rm qa. #### 💄 Styles - **misc**: Update i18n.
Improvements and Fixes #### Code refactoring * **i18n**: Rm qa, closes [#9783](https://github.com/lobehub/lobe-chat/issues/9783) ([6d14dfe](https://github.com/lobehub/lobe-chat/commit/6d14dfe)) #### Styles * **misc**: Update i18n, closes [#9787](https://github.com/lobehub/lobe-chat/issues/9787) ([b43d4b2](https://github.com/lobehub/lobe-chat/commit/b43d4b2))
[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top)
--- CHANGELOG.md | 33 +++++++++++++++++++++++++++++++++ package.json | 2 +- 2 files changed, 34 insertions(+), 1 deletion(-) diff --git a/CHANGELOG.md b/CHANGELOG.md index bf486bb3703..e5bf0be1ba0 100644 --- a/CHANGELOG.md +++ b/CHANGELOG.md @@ -2,6 +2,39 @@ # Changelog +### [Version 1.139.1](https://github.com/lobehub/lobe-chat/compare/v1.139.0...v1.139.1) + +Released on **2025-10-20** + +#### ♻ Code Refactoring + +- **i18n**: Rm qa. + +#### 💄 Styles + +- **misc**: Update i18n. + +
+ +
+Improvements and Fixes + +#### Code refactoring + +- **i18n**: Rm qa, closes [#9783](https://github.com/lobehub/lobe-chat/issues/9783) ([6d14dfe](https://github.com/lobehub/lobe-chat/commit/6d14dfe)) + +#### Styles + +- **misc**: Update i18n, closes [#9787](https://github.com/lobehub/lobe-chat/issues/9787) ([b43d4b2](https://github.com/lobehub/lobe-chat/commit/b43d4b2)) + +
+ +
+ +[![](https://img.shields.io/badge/-BACK_TO_TOP-151515?style=flat-square)](#readme-top) + +
+ ## [Version 1.139.0](https://github.com/lobehub/lobe-chat/compare/v1.138.5...v1.139.0) Released on **2025-10-19** diff --git a/package.json b/package.json index afbe27a36ec..cb8fad1390b 100644 --- a/package.json +++ b/package.json @@ -1,6 +1,6 @@ { "name": "@lobehub/chat", - "version": "1.139.0", + "version": "1.139.1", "description": "Lobe Chat - an open-source, high-performance chatbot framework that supports speech synthesis, multimodal, and extensible Function Call plugin system. Supports one-click free deployment of your private ChatGPT/LLM web application.", "keywords": [ "framework", From ce7a74242fbc8d831a3d1810eace932270d998ba Mon Sep 17 00:00:00 2001 From: lobehubbot Date: Mon, 20 Oct 2025 02:56:09 +0000 Subject: [PATCH 6/6] =?UTF-8?q?=F0=9F=93=9D=20docs(bot):=20Auto=20sync=20a?= =?UTF-8?q?gents=20&=20plugin=20to=20readme?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- changelog/v1.json | 7 +++++++ 1 file changed, 7 insertions(+) diff --git a/changelog/v1.json b/changelog/v1.json index 21276596a83..e96c91029a0 100644 --- a/changelog/v1.json +++ b/changelog/v1.json @@ -1,4 +1,11 @@ [ + { + "children": { + "improvements": ["Update i18n."] + }, + "date": "2025-10-20", + "version": "1.139.1" + }, { "children": { "features": ["Support image generation for siliconcloud."]