From 4f94cda82c4be2c85a9b138c95e4b7b36080ff9e Mon Sep 17 00:00:00 2001 From: canisminor1990 Date: Wed, 27 Nov 2024 00:47:36 +0800 Subject: [PATCH] =?UTF-8?q?=E2=9C=A8=20feat:=20Add=20changelog=20modal?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- locales/ar/changelog.json | 14 ++ locales/ar/common.json | 1 + locales/ar/metadata.json | 4 + locales/ar/models.json | 24 +++ locales/ar/providers.json | 3 + locales/bg-BG/changelog.json | 14 ++ locales/bg-BG/common.json | 1 + locales/bg-BG/metadata.json | 4 + locales/bg-BG/models.json | 24 +++ locales/bg-BG/providers.json | 3 + locales/de-DE/changelog.json | 14 ++ locales/de-DE/common.json | 1 + locales/de-DE/metadata.json | 4 + locales/de-DE/models.json | 24 +++ locales/de-DE/providers.json | 3 + locales/en-US/changelog.json | 14 ++ locales/en-US/common.json | 1 + locales/en-US/metadata.json | 4 + locales/en-US/models.json | 24 +++ locales/en-US/providers.json | 3 + locales/es-ES/changelog.json | 14 ++ locales/es-ES/common.json | 1 + locales/es-ES/metadata.json | 4 + locales/es-ES/models.json | 24 +++ locales/es-ES/providers.json | 3 + locales/fa-IR/changelog.json | 14 ++ locales/fa-IR/common.json | 1 + locales/fa-IR/metadata.json | 4 + locales/fa-IR/models.json | 24 +++ locales/fa-IR/providers.json | 3 + locales/fr-FR/changelog.json | 14 ++ locales/fr-FR/common.json | 1 + locales/fr-FR/metadata.json | 4 + locales/fr-FR/models.json | 24 +++ locales/fr-FR/providers.json | 3 + locales/it-IT/changelog.json | 14 ++ locales/it-IT/common.json | 1 + locales/it-IT/metadata.json | 4 + locales/it-IT/models.json | 24 +++ locales/it-IT/providers.json | 3 + locales/ja-JP/changelog.json | 14 ++ locales/ja-JP/common.json | 1 + locales/ja-JP/metadata.json | 4 + locales/ja-JP/models.json | 24 +++ locales/ja-JP/providers.json | 3 + locales/ko-KR/changelog.json | 14 ++ locales/ko-KR/common.json | 1 + locales/ko-KR/metadata.json | 4 + locales/ko-KR/models.json | 24 +++ locales/ko-KR/providers.json | 3 + locales/nl-NL/changelog.json | 14 ++ locales/nl-NL/common.json | 1 + locales/nl-NL/metadata.json | 4 + locales/nl-NL/models.json | 24 +++ locales/nl-NL/providers.json | 3 + locales/pl-PL/changelog.json | 14 ++ locales/pl-PL/common.json | 1 + locales/pl-PL/metadata.json | 4 + locales/pl-PL/models.json | 24 +++ locales/pl-PL/providers.json | 3 + locales/pt-BR/changelog.json | 14 ++ locales/pt-BR/common.json | 1 + locales/pt-BR/metadata.json | 4 + locales/pt-BR/models.json | 24 +++ locales/pt-BR/providers.json | 3 + locales/ru-RU/changelog.json | 14 ++ locales/ru-RU/common.json | 1 + locales/ru-RU/metadata.json | 4 + locales/ru-RU/models.json | 24 +++ locales/ru-RU/providers.json | 3 + locales/tr-TR/changelog.json | 14 ++ locales/tr-TR/common.json | 1 + locales/tr-TR/metadata.json | 4 + locales/tr-TR/models.json | 24 +++ locales/tr-TR/providers.json | 3 + locales/vi-VN/changelog.json | 14 ++ locales/vi-VN/common.json | 1 + locales/vi-VN/metadata.json | 4 + locales/vi-VN/models.json | 24 +++ locales/vi-VN/providers.json | 3 + locales/zh-CN/changelog.json | 14 ++ locales/zh-CN/common.json | 1 + locales/zh-CN/metadata.json | 4 + locales/zh-CN/models.json | 24 +++ locales/zh-CN/providers.json | 3 + locales/zh-TW/changelog.json | 14 ++ locales/zh-TW/common.json | 1 + locales/zh-TW/metadata.json | 4 + locales/zh-TW/models.json | 24 +++ locales/zh-TW/providers.json | 3 + next.config.mjs | 17 ++ package.json | 2 +- .../me/(home)/features/useCategory.tsx | 16 +- src/app/(main)/_layout/Desktop.tsx | 7 +- src/app/(main)/_layout/Mobile.tsx | 6 +- src/app/(main)/changelog/_layout/Desktop.tsx | 21 ++ .../changelog/_layout/Mobile/Header.tsx | 33 ++++ .../(main)/changelog/_layout/Mobile/index.tsx | 19 ++ src/app/(main)/changelog/error.tsx | 5 + .../(main)/changelog/features/GridLayout.tsx | 27 +++ src/app/(main)/changelog/features/Hero.tsx | 39 ++++ src/app/(main)/changelog/features/Post.tsx | 52 +++++ .../changelog/features/PublishedTime.tsx | 50 +++++ .../(main)/changelog/features/VersionTag.tsx | 27 +++ src/app/(main)/changelog/layout.tsx | 10 + src/app/(main)/changelog/loading.tsx | 3 + src/app/(main)/changelog/not-found.tsx | 3 + src/app/(main)/changelog/page.tsx | 53 +++++ src/app/(main)/chat/(workspace)/page.tsx | 4 +- .../settings/about/features/Version.tsx | 4 +- .../@modal/(.)changelog/features/Cover.tsx | 62 ++++++ src/app/@modal/(.)changelog/features/Hero.tsx | 23 +++ src/app/@modal/(.)changelog/features/Post.tsx | 42 ++++ .../(.)changelog/features/PublishedTime.tsx | 50 +++++ .../(.)changelog/features/ReadDetail.tsx | 94 +++++++++ .../(.)changelog/features/VersionTag.tsx | 27 +++ src/app/@modal/(.)changelog/layout.tsx | 44 +++++ src/app/@modal/(.)changelog/loading.tsx | 10 + src/app/@modal/(.)changelog/page.tsx | 24 +++ src/app/@modal/(.)settings/modal/layout.tsx | 35 ++-- src/app/@modal/_layout/ModalLayout.tsx | 63 ++++++ .../@modal/chat/(.)settings/modal/layout.tsx | 37 ++-- .../@modal/features/InterceptingContext.tsx | 9 - src/app/@modal/layout.tsx | 74 +------ src/const/url.ts | 1 + src/features/ChangelogModal/index.tsx | 25 +++ src/features/User/UserPanel/useMenu.tsx | 17 ++ src/hooks/useInterceptingRoutes.ts | 7 +- src/hooks/useShare.tsx | 1 + src/locales/default/changelog.ts | 14 ++ src/locales/default/common.ts | 1 + src/locales/default/index.ts | 2 + src/locales/default/metadata.ts | 4 + src/server/sitemap.ts | 1 + src/services/changelog.ts | 184 ++++++++++++++++++ src/store/global/action.ts | 5 + src/store/global/initialState.ts | 1 + 137 files changed, 1958 insertions(+), 125 deletions(-) create mode 100644 locales/ar/changelog.json create mode 100644 locales/bg-BG/changelog.json create mode 100644 locales/de-DE/changelog.json create mode 100644 locales/en-US/changelog.json create mode 100644 locales/es-ES/changelog.json create mode 100644 locales/fa-IR/changelog.json create mode 100644 locales/fr-FR/changelog.json create mode 100644 locales/it-IT/changelog.json create mode 100644 locales/ja-JP/changelog.json create mode 100644 locales/ko-KR/changelog.json create mode 100644 locales/nl-NL/changelog.json create mode 100644 locales/pl-PL/changelog.json create mode 100644 locales/pt-BR/changelog.json create mode 100644 locales/ru-RU/changelog.json create mode 100644 locales/tr-TR/changelog.json create mode 100644 locales/vi-VN/changelog.json create mode 100644 locales/zh-CN/changelog.json create mode 100644 locales/zh-TW/changelog.json create mode 100644 src/app/(main)/changelog/_layout/Desktop.tsx create mode 100644 src/app/(main)/changelog/_layout/Mobile/Header.tsx create mode 100644 src/app/(main)/changelog/_layout/Mobile/index.tsx create mode 100644 src/app/(main)/changelog/error.tsx create mode 100644 src/app/(main)/changelog/features/GridLayout.tsx create mode 100644 src/app/(main)/changelog/features/Hero.tsx create mode 100644 src/app/(main)/changelog/features/Post.tsx create mode 100644 src/app/(main)/changelog/features/PublishedTime.tsx create mode 100644 src/app/(main)/changelog/features/VersionTag.tsx create mode 100644 src/app/(main)/changelog/layout.tsx create mode 100644 src/app/(main)/changelog/loading.tsx create mode 100644 src/app/(main)/changelog/not-found.tsx create mode 100644 src/app/(main)/changelog/page.tsx create mode 100644 src/app/@modal/(.)changelog/features/Cover.tsx create mode 100644 src/app/@modal/(.)changelog/features/Hero.tsx create mode 100644 src/app/@modal/(.)changelog/features/Post.tsx create mode 100644 src/app/@modal/(.)changelog/features/PublishedTime.tsx create mode 100644 src/app/@modal/(.)changelog/features/ReadDetail.tsx create mode 100644 src/app/@modal/(.)changelog/features/VersionTag.tsx create mode 100644 src/app/@modal/(.)changelog/layout.tsx create mode 100644 src/app/@modal/(.)changelog/loading.tsx create mode 100644 src/app/@modal/(.)changelog/page.tsx create mode 100644 src/app/@modal/_layout/ModalLayout.tsx delete mode 100644 src/app/@modal/features/InterceptingContext.tsx create mode 100644 src/features/ChangelogModal/index.tsx create mode 100644 src/locales/default/changelog.ts create mode 100644 src/services/changelog.ts diff --git a/locales/ar/changelog.json b/locales/ar/changelog.json new file mode 100644 index 0000000000000..8997f54eecb84 --- /dev/null +++ b/locales/ar/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "تابعنا على X", + "subscribeToUpdates": "اشترك في التحديثات", + "versions": "تفاصيل الإصدار" + }, + "addedWhileAway": "لقد أضفنا ميزات جديدة أثناء غيابك.", + "allChangelog": "عرض جميع سجلات التحديثات", + "description": "تابع الميزات الجديدة والتحسينات في {{appName}}", + "readDetails": "اقرأ التفاصيل", + "title": "سجل التحديثات", + "versionDetails": "تفاصيل الإصدار", + "welcomeBack": "مرحبًا بعودتك!" +} diff --git a/locales/ar/common.json b/locales/ar/common.json index 545be4b276427..9147084b6cc5e 100644 --- a/locales/ar/common.json +++ b/locales/ar/common.json @@ -154,6 +154,7 @@ "pinOff": "إلغاء التثبيت", "privacy": "سياسة الخصوصية", "regenerate": "إعادة توليد", + "releaseNotes": "تفاصيل الإصدار", "rename": "إعادة تسمية", "reset": "إعادة تعيين", "retry": "إعادة المحاولة", diff --git a/locales/ar/metadata.json b/locales/ar/metadata.json index 034b748717a8b..3d1a0c82ec838 100644 --- a/locales/ar/metadata.json +++ b/locales/ar/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "تابع الميزات الجديدة والتحسينات في {{appName}} باستمرار", + "title": "سجل التحديثات" + }, "chat": { "description": "{{appName}} يقدم لك أفضل تجربة لاستخدام ChatGPT وClaude وGemini وOLLaMA WebUI", "title": "{{appName}}: أداة الذكاء الاصطناعي الشخصية، امنح نفسك دماغًا أكثر ذكاءً" diff --git a/locales/ar/models.json b/locales/ar/models.json index 4312d48cdb9e1..0a8f4d9efd296 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math يركز على حل المشكلات في مجال الرياضيات، ويقدم إجابات احترافية للأسئلة الصعبة." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، ويدعم سياقًا يصل إلى 128 ألف، مقارنةً بأفضل النماذج مفتوحة المصدر الحالية، يتفوق Qwen2-72B بشكل ملحوظ على النماذج الرائدة الحالية في فهم اللغة الطبيعية والمعرفة والترميز والرياضيات والقدرات متعددة اللغات." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 هو أحدث سلسلة من نموذج Qwen، قادر على التفوق على النماذج مفتوحة المصدر ذات الحجم المماثل أو حتى النماذج الأكبر حجمًا، حقق Qwen2 7B مزايا ملحوظة في عدة تقييمات، خاصة في فهم الترميز والصينية." + }, + "Qwen2.5-72B-Instruct": { + "description": "يدعم Qwen2.5-72B-Instruct سياقًا يصل إلى 16 ألف، وينتج نصوصًا طويلة تتجاوز 8 آلاف. يدعم استدعاء الوظائف والتفاعل السلس مع الأنظمة الخارجية، مما يعزز بشكل كبير من المرونة وقابلية التوسع. لقد زادت معرفة النموذج بشكل ملحوظ، كما تحسنت قدراته في الترميز والرياضيات بشكل كبير، ويدعم أكثر من 29 لغة." + }, "SenseChat": { "description": "نموذج الإصدار الأساسي (V4)، بطول سياق 4K، يمتلك قدرات قوية وعامة." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large هو أكبر نموذج MoE مفتوح المصدر في الصناعة، مع 389 مليار إجمالي عدد المعلمات و52 مليار عدد المعلمات النشطة." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B، مع الحفاظ على القدرات اللغوية العامة الممتازة للنموذج الأصلي، تم تحسينه بشكل كبير من خلال التدريب الإضافي على 500 مليار توكن عالي الجودة، مما زاد بشكل كبير من قدراته في المنطق الرياضي والترميز." + }, "abab5.5-chat": { "description": "موجه لمشاهد الإنتاجية، يدعم معالجة المهام المعقدة وتوليد النصوص بكفاءة، مناسب للتطبيقات في المجالات المهنية." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 هو مساعد برمجي قوي، يدعم مجموعة متنوعة من لغات البرمجة في الإجابة الذكية وإكمال الشيفرة، مما يعزز من كفاءة التطوير." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B هو نموذج توليد كود متعدد اللغات، يدعم مجموعة شاملة من الوظائف بما في ذلك إكمال الكود وتوليده، ومفسر الكود، والبحث عبر الإنترنت، واستدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، مما يغطي جميع سيناريوهات تطوير البرمجيات. إنه أحد أفضل نماذج توليد الكود بأقل من 10B من المعلمات." + }, "codegemma": { "description": "CodeGemma هو نموذج لغوي خفيف الوزن مخصص لمهام البرمجة المختلفة، يدعم التكرار السريع والتكامل." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "نموذج مفتوح المصدر الجديد الذي يجمع بين القدرات العامة وقدرات البرمجة، لا يحتفظ فقط بالقدرات الحوارية العامة لنموذج الدردشة الأصلي وقدرات معالجة الشيفرة القوية لنموذج Coder، بل يتماشى أيضًا بشكل أفضل مع تفضيلات البشر. بالإضافة إلى ذلك، حقق DeepSeek-V2.5 تحسينات كبيرة في مهام الكتابة، واتباع التعليمات، وغيرها من المجالات." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B هو نموذج لغة برمجية، تم تدريبه على 20 تريليون بيانات، منها 87% كود و13% لغات صينية وإنجليزية. يقدم النموذج حجم نافذة 16K ومهام ملء الفراغ، مما يوفر ميزات إكمال الشيفرات على مستوى المشروع وملء المقاطع." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 هو نموذج شيفرة مفتوح المصدر من نوع خبير مختلط، يقدم أداءً ممتازًا في مهام الشيفرة، ويضاهي GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "جيمني إكسب 1114 هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط تجريبي من Google، يتميز بقدرة معالجة سريعة، ويدعم إدخالات النصوص والصور والفيديو، مما يجعله مناسبًا للتوسع الفعال في مهام متعددة." }, + "gemini-exp-1121": { + "description": "جمني إكسب 1121 هو أحدث نموذج تجريبي متعدد الوسائط من جوجل، يتمتع بقدرة معالجة سريعة، ويدعم إدخال النصوص والصور والفيديو، مما يجعله مناسبًا لتوسيع الكفاءة في مجموعة متنوعة من المهام." + }, "gemma-7b-it": { "description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 هو أحدث إصدار من النموذج، مصمم للمهام المعقدة والمتنوعة، ويظهر أداءً ممتازًا." }, + "glm-4-9b-chat": { + "description": "يظهر GLM-4-9B-Chat أداءً عاليًا في مجالات متعددة مثل الدلالات والرياضيات والاستدلال والترميز والمعرفة. كما أنه مزود بقدرات تصفح الويب وتنفيذ الشيفرات واستدعاء الأدوات المخصصة واستدلال النصوص الطويلة. يدعم 26 لغة بما في ذلك اليابانية والكورية والألمانية." + }, "glm-4-air": { "description": "GLM-4-Air هو إصدار ذو قيمة عالية، يتمتع بأداء قريب من GLM-4، ويقدم سرعة عالية وسعرًا معقولًا." }, diff --git a/locales/ar/providers.json b/locales/ar/providers.json index 4df504e9e9eeb..57fbf48f1df81 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI هي شركة رائدة في تقديم خدمات نماذج اللغة المتقدمة، تركز على استدعاء الوظائف والمعالجة متعددة الوسائط. نموذجها الأحدث Firefunction V2 مبني على Llama-3، مُحسّن لاستدعاء الوظائف، والحوار، واتباع التعليمات. يدعم نموذج اللغة البصرية FireLLaVA-13B إدخال الصور والنصوص المختلطة. تشمل النماذج البارزة الأخرى سلسلة Llama وسلسلة Mixtral، مما يوفر دعمًا فعالًا لاتباع التعليمات وتوليدها بلغات متعددة." }, + "giteeai": { + "description": "تقدم واجهة برمجة التطبيقات الخالية من الخادم لـ Gitee AI خدمات واجهة برمجة التطبيقات لاستدلال النماذج الكبيرة جاهزة للاستخدام لمطوري الذكاء الاصطناعي." + }, "github": { "description": "مع نماذج GitHub، يمكن للمطورين أن يصبحوا مهندسي ذكاء اصطناعي ويبنون باستخدام نماذج الذكاء الاصطناعي الرائدة في الصناعة." }, diff --git a/locales/bg-BG/changelog.json b/locales/bg-BG/changelog.json new file mode 100644 index 0000000000000..136252e174640 --- /dev/null +++ b/locales/bg-BG/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Последвайте ни в X", + "subscribeToUpdates": "Абонирайте се за актуализации", + "versions": "Детайли за версиите" + }, + "addedWhileAway": "Докато ви нямаше, добавихме нови функции.", + "allChangelog": "Вижте всички актуализации", + "description": "Следете новите функции и подобрения на {{appName}}", + "readDetails": "Прочетете подробности", + "title": "Актуализации", + "versionDetails": "Детайли за версиите", + "welcomeBack": "Добре дошли обратно!" +} diff --git a/locales/bg-BG/common.json b/locales/bg-BG/common.json index a93f47668f723..ad3c5453ae90c 100644 --- a/locales/bg-BG/common.json +++ b/locales/bg-BG/common.json @@ -154,6 +154,7 @@ "pinOff": "Откачи", "privacy": "Политика за поверителност", "regenerate": "Прегенерирай", + "releaseNotes": "Информация за версията", "rename": "Преименувай", "reset": "Нулирай", "retry": "Опитай отново", diff --git a/locales/bg-BG/metadata.json b/locales/bg-BG/metadata.json index 8c12d30619a8a..f8f312d02fd1e 100644 --- a/locales/bg-BG/metadata.json +++ b/locales/bg-BG/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Непрекъснато следене на новите функции и подобрения в {{appName}}", + "title": "Журнал на промените" + }, "chat": { "description": "{{appName}} ви предлага най-доброто изживяване с ChatGPT, Claude, Gemini и OLLaMA WebUI", "title": "{{appName}}: Личен AI инструмент за ефективност, дайте си по-умен мозък" diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index 85bf28ee7aa27..a5c13aa09edce 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math се фокусира върху решаването на математически проблеми, предоставяйки професионални отговори на трудни задачи." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 е най-новата серия на модела Qwen, поддържаща 128k контекст. В сравнение с текущите най-добри отворени модели, Qwen2-72B значително надминава водещите модели в области като разбиране на естествен език, знания, код, математика и многоезичност." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 е най-новата серия на модела Qwen, способен да надмине оптималните отворени модели с подобен размер и дори по-големи модели. Qwen2 7B постига значителни предимства в множество тестове, особено в разбирането на код и китайския език." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct поддържа 16k контекст, генерира дълги текстове над 8K. Поддържа функция за извикване и безпроблемна интеграция с външни системи, значително увеличаваща гъвкавостта и разширяемостта. Моделът има значително увеличени знания и значително подобрени способности в кодиране и математика, с многоезична поддръжка над 29 езика." + }, "SenseChat": { "description": "Основна версия на модела (V4), с контекстна дължина 4K, с мощни общи способности." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large е най-голямата отворена трансформаторна архитектура MoE в индустрията, с общо 3890 милиарда параметри и 52 милиарда активни параметри." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B значително подобрява математическата логика и способностите в кодирането, като запазва отличните общи езикови способности на оригиналната серия, чрез инкрементално обучение с 500 милиарда висококачествени токени." + }, "abab5.5-chat": { "description": "Насочена към производствени сценарии, поддържаща обработка на сложни задачи и ефективно генериране на текст, подходяща за професионални приложения." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 е мощен AI помощник за програмиране, който поддържа интелигентни въпроси и отговори и автоматично допълване на код за различни програмни езици, повишавайки ефективността на разработката." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който предлага пълна функционалност, включително завършване и генериране на код, интерпретатор на код, уеб търсене, извикване на функции и въпроси и отговори на ниво хранилище, обхващащ различни сценарии на софтуерна разработка. Това е водещ модел за генериране на код с по-малко от 10B параметри." + }, "codegemma": { "description": "CodeGemma е лек езиков модел, специализиран в различни програмни задачи, поддържащ бърза итерация и интеграция." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Новооткритият отворен модел, който съчетава общи и кодови способности, не само запазва общата диалогова способност на оригиналния Chat модел и мощната способност за обработка на код на Coder модела, но също така по-добре се съгласува с човешките предпочитания. Освен това, DeepSeek-V2.5 постигна значителни подобрения в писателските задачи, следването на инструкции и много други области." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B е модел за кодови езици, обучен на 20 трилиона данни, от които 87% са код и 13% са на китайски и английски. Моделът въвежда размер на прозореца от 16K и задачи за попълване, предоставяйки функции за завършване на код на проектно ниво и попълване на фрагменти." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 е отворен хибриден експертен кодов модел, който се представя отлично в кодовите задачи, сравним с GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 е най-новият експериментален многомодален AI модел на Google, който предлага бърза обработка и поддържа вход от текст, изображения и видео, подходящ за ефективно разширение на множество задачи." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 е най-новият експериментален мултимодален AI модел на Google, който предлага бърза обработка и поддържа текстови, изображенчески и видео входове, подходящ за ефективно разширяване на различни задачи." + }, "gemma-7b-it": { "description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 е най-новата версия на модела, проектирана за високо сложни и разнообразни задачи, с отлични резултати." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat показва висока производителност в множество области, включително семантика, математика, логическо разсъждение, код и знания. Също така предлага функции за уеб браузинг, изпълнение на код, извикване на персонализирани инструменти и разсъждение върху дълги текстове. Поддържа 26 езика, включително японски, корейски и немски." + }, "glm-4-air": { "description": "GLM-4-Air е икономичен вариант, с производителност близка до GLM-4, предлагаща бързина и достъпна цена." }, diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 30759a9154e00..cae9b9a080a6a 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI е водещ доставчик на напреднали езикови модели, фокусирайки се върху извикване на функции и мултимодална обработка. Най-новият им модел Firefunction V2, базиран на Llama-3, е оптимизиран за извикване на функции, диалози и следване на инструкции. Визуалният езиков модел FireLLaVA-13B поддържа смесени входове от изображения и текст. Други забележителни модели включват серията Llama и серията Mixtral, предлагащи ефективна поддръжка за многоезично следване на инструкции и генериране." }, + "giteeai": { + "description": "Сървърless API на Gitee AI предоставя на разработчиците на AI готови за употреба API услуги за инференция с големи модели." + }, "github": { "description": "С моделите на GitHub разработчиците могат да станат AI инженери и да изграждат с водещите AI модели в индустрията." }, diff --git a/locales/de-DE/changelog.json b/locales/de-DE/changelog.json new file mode 100644 index 0000000000000..1980e18b2863b --- /dev/null +++ b/locales/de-DE/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Folgen Sie uns auf X", + "subscribeToUpdates": "Abonnieren Sie Updates", + "versions": "Versionsdetails" + }, + "addedWhileAway": "Wir haben neue Funktionen hinzugefügt, während Sie weg waren.", + "allChangelog": "Alle Änderungsprotokolle anzeigen", + "description": "Verfolgen Sie die neuen Funktionen und Verbesserungen von {{appName}} kontinuierlich", + "readDetails": "Details lesen", + "title": "Änderungsprotokoll", + "versionDetails": "Versionsdetails", + "welcomeBack": "Willkommen zurück!" +} diff --git a/locales/de-DE/common.json b/locales/de-DE/common.json index df1977a41068b..bd7bb7401b46f 100644 --- a/locales/de-DE/common.json +++ b/locales/de-DE/common.json @@ -154,6 +154,7 @@ "pinOff": "Anheften aufheben", "privacy": "Datenschutzrichtlinie", "regenerate": "Neu generieren", + "releaseNotes": "Versionsdetails", "rename": "Umbenennen", "reset": "Zurücksetzen", "retry": "Erneut versuchen", diff --git a/locales/de-DE/metadata.json b/locales/de-DE/metadata.json index d5e01753ce0fa..06c08bee67cb8 100644 --- a/locales/de-DE/metadata.json +++ b/locales/de-DE/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Verfolgen Sie kontinuierlich die neuen Funktionen und Verbesserungen von {{appName}}", + "title": "Änderungsprotokoll" + }, "chat": { "description": "{{appName}} bietet dir das beste Erlebnis mit ChatGPT, Claude, Gemini und OLLaMA WebUI", "title": "{{appName}}: Persönliches KI-Effizienzwerkzeug, gib dir selbst ein schlaueres Gehirn" diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 16d770c0deebb..23e1a65dd7467 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math konzentriert sich auf die Problemlösung im Bereich Mathematik und bietet professionelle Lösungen für schwierige Aufgaben." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das 128k Kontext unterstützt. Im Vergleich zu den derzeit besten Open-Source-Modellen übertrifft Qwen2-72B in den Bereichen natürliche Sprachverständnis, Wissen, Code, Mathematik und Mehrsprachigkeit deutlich die führenden Modelle." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 ist die neueste Reihe des Qwen-Modells, das in der Lage ist, die besten Open-Source-Modelle ähnlicher Größe oder sogar größerer Modelle zu übertreffen. Qwen2 7B hat in mehreren Bewertungen signifikante Vorteile erzielt, insbesondere im Bereich Code und Chinesischverständnis." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct unterstützt 16k Kontext und generiert lange Texte über 8K. Es unterstützt Funktionsaufrufe und nahtlose Interaktionen mit externen Systemen, was die Flexibilität und Skalierbarkeit erheblich erhöht. Das Wissen des Modells hat deutlich zugenommen, und die Codierungs- und mathematischen Fähigkeiten wurden erheblich verbessert, mit Unterstützung für über 29 Sprachen." + }, "SenseChat": { "description": "Basisversion des Modells (V4) mit 4K Kontextlänge, die über starke allgemeine Fähigkeiten verfügt." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large ist das größte Open-Source-Transformer-Architektur MoE-Modell der Branche mit insgesamt 389 Milliarden Parametern und 52 Milliarden aktiven Parametern." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B hat die hervorragenden allgemeinen Sprachfähigkeiten des ursprünglichen Modells beibehalten und durch inkrementelles Training von 500 Milliarden hochwertigen Tokens die mathematische Logik und die Codierungsfähigkeiten erheblich verbessert." + }, "abab5.5-chat": { "description": "Für produktivitätsorientierte Szenarien konzipiert, unterstützt es die Verarbeitung komplexer Aufgaben und die effiziente Textgenerierung, geeignet für professionelle Anwendungen." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 ist ein leistungsstarker AI-Programmierassistent, der intelligente Fragen und Codevervollständigung in verschiedenen Programmiersprachen unterstützt und die Entwicklungseffizienz steigert." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Code-Generierungsmodell, das umfassende Funktionen unterstützt, darunter Code-Vervollständigung und -Generierung, Code-Interpreter, Websuche, Funktionsaufrufe und repository-basiertes Code-Q&A, und deckt verschiedene Szenarien der Softwareentwicklung ab. Es ist das führende Code-Generierungsmodell mit weniger als 10B Parametern." + }, "codegemma": { "description": "CodeGemma ist ein leichtgewichtiges Sprachmodell, das speziell für verschiedene Programmieraufgaben entwickelt wurde und schnelle Iterationen und Integrationen unterstützt." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Ein neues Open-Source-Modell, das allgemeine und Codefähigkeiten kombiniert. Es bewahrt nicht nur die allgemeinen Dialogfähigkeiten des ursprünglichen Chat-Modells und die leistungsstarken Codeverarbeitungsfähigkeiten des Coder-Modells, sondern stimmt auch besser mit menschlichen Präferenzen überein. Darüber hinaus hat DeepSeek-V2.5 in mehreren Bereichen wie Schreibaufgaben und Befolgung von Anweisungen erhebliche Verbesserungen erzielt." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, das auf 20 Billionen Daten trainiert wurde, von denen 87 % Code und 13 % in Chinesisch und Englisch sind. Das Modell führt eine Fenstergröße von 16K und Aufgaben zur Lückenausfüllung ein und bietet projektbezogene Code-Vervollständigungs- und Fragmentfüllfunktionen." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 ist ein Open-Source-Mischexperten-Code-Modell, das in Codeaufgaben hervorragende Leistungen erbringt und mit GPT4-Turbo vergleichbar ist." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 ist Googles neuestes experimentelles multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 ist Googles neuestes experimentelles multimodales KI-Modell, das über eine schnelle Verarbeitungskapazität verfügt und Texte, Bilder und Videoeingaben unterstützt, um eine effiziente Skalierung für verschiedene Aufgaben zu ermöglichen." + }, "gemma-7b-it": { "description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 ist die neueste Modellversion, die für hochkomplexe und vielfältige Aufgaben konzipiert wurde und hervorragende Leistungen zeigt." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat zeigt in den Bereichen Semantik, Mathematik, Schlussfolgerungen, Code und Wissen eine hohe Leistung. Es verfügt auch über Funktionen wie Web-Browsing, Code-Ausführung, benutzerdefinierte Toolaufrufe und langes Textverständnis. Es unterstützt 26 Sprachen, darunter Japanisch, Koreanisch und Deutsch." + }, "glm-4-air": { "description": "GLM-4-Air ist eine kosteneffiziente Version, die in der Leistung nahe am GLM-4 liegt und schnelle Geschwindigkeiten zu einem erschwinglichen Preis bietet." }, diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index 0c32117fb2c37..d46435d3240ac 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI ist ein führender Anbieter von fortschrittlichen Sprachmodellen, der sich auf Funktionsaufrufe und multimodale Verarbeitung spezialisiert hat. Ihr neuestes Modell, Firefunction V2, basiert auf Llama-3 und ist für Funktionsaufrufe, Dialoge und Befehlsbefolgung optimiert. Das visuelle Sprachmodell FireLLaVA-13B unterstützt gemischte Eingaben von Bildern und Text. Weitere bemerkenswerte Modelle sind die Llama-Serie und die Mixtral-Serie, die effiziente mehrsprachige Befehlsbefolgung und Generierungsunterstützung bieten." }, + "giteeai": { + "description": "Die Serverless API von Gitee AI bietet KI-Entwicklern sofort einsatzbereite API-Dienste für die Inferenz großer Modelle." + }, "github": { "description": "Mit GitHub-Modellen können Entwickler zu KI-Ingenieuren werden und mit den führenden KI-Modellen der Branche arbeiten." }, diff --git a/locales/en-US/changelog.json b/locales/en-US/changelog.json new file mode 100644 index 0000000000000..b42d51d11f527 --- /dev/null +++ b/locales/en-US/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Follow us on X", + "subscribeToUpdates": "Subscribe for updates", + "versions": "Version details" + }, + "addedWhileAway": "We've introduced new features while you were away.", + "allChangelog": "View all changelogs", + "description": "Stay updated on the new features and improvements of {{appName}}", + "readDetails": "Read details", + "title": "Changelog", + "versionDetails": "Version details", + "welcomeBack": "Welcome back!" +} diff --git a/locales/en-US/common.json b/locales/en-US/common.json index 41a5c32ea73c5..feb4060791d44 100644 --- a/locales/en-US/common.json +++ b/locales/en-US/common.json @@ -154,6 +154,7 @@ "pinOff": "Unpin", "privacy": "Privacy Policy", "regenerate": "Regenerate", + "releaseNotes": "Version Details", "rename": "Rename", "reset": "Reset", "retry": "Retry", diff --git a/locales/en-US/metadata.json b/locales/en-US/metadata.json index ce088925446ba..30df2d8311b01 100644 --- a/locales/en-US/metadata.json +++ b/locales/en-US/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Stay updated on the new features and improvements of {{appName}}", + "title": "Changelog" + }, "chat": { "description": "{{appName}} brings you the best UI experience for ChatGPT, Claude, Gemini, and OLLaMA.", "title": "{{appName}}: Your personal AI productivity tool for a smarter brain." diff --git a/locales/en-US/models.json b/locales/en-US/models.json index c002c472d7bb7..8ae2b890431de 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math focuses on problem-solving in the field of mathematics, providing expert solutions for challenging problems." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 is the latest series of the Qwen model, supporting 128k context. Compared to the current best open-source models, Qwen2-72B significantly surpasses leading models in natural language understanding, knowledge, coding, mathematics, and multilingual capabilities." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 is the latest series of the Qwen model, capable of outperforming optimal open-source models of similar size and even larger models. Qwen2 7B has achieved significant advantages in multiple evaluations, especially in coding and Chinese comprehension." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct supports 16k context and generates long texts exceeding 8K. It enables seamless interaction with external systems through function calls, greatly enhancing flexibility and scalability. The model's knowledge has significantly increased, and its coding and mathematical abilities have been greatly improved, with multilingual support for over 29 languages." + }, "SenseChat": { "description": "Basic version model (V4) with a context length of 4K, featuring strong general capabilities." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large is the industry's largest open-source Transformer architecture MoE model, with a total of 389 billion parameters and 52 billion active parameters." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B has significantly improved mathematical logic and coding abilities by incrementally training on 500 billion high-quality tokens while maintaining the excellent general language capabilities of its original series." + }, "abab5.5-chat": { "description": "Targeted at productivity scenarios, supporting complex task processing and efficient text generation, suitable for professional applications." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 is a powerful AI programming assistant that supports intelligent Q&A and code completion in various programming languages, enhancing development efficiency." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B is a multilingual code generation model that supports comprehensive functions including code completion and generation, code interpretation, web search, function calls, and repository-level code Q&A, covering various scenarios in software development. It is a top-tier code generation model with fewer than 10B parameters." + }, "codegemma": { "description": "CodeGemma is a lightweight language model dedicated to various programming tasks, supporting rapid iteration and integration." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "A new open-source model that integrates general and coding capabilities, retaining the general conversational abilities of the original Chat model and the powerful code handling capabilities of the Coder model, while better aligning with human preferences. Additionally, DeepSeek-V2.5 has achieved significant improvements in writing tasks, instruction following, and more." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B is a code language model trained on 20 trillion data points, of which 87% are code and 13% are in Chinese and English. The model introduces a 16K window size and fill-in-the-blank tasks, providing project-level code completion and snippet filling capabilities." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 is an open-source hybrid expert code model that performs excellently in coding tasks, comparable to GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 is Google's latest experimental multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it suitable for efficient scaling across various tasks." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 is Google's latest experimental multimodal AI model, featuring rapid processing capabilities and supporting text, image, and video inputs, making it efficient for a variety of tasks." + }, "gemma-7b-it": { "description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 is the latest model version designed for highly complex and diverse tasks, demonstrating outstanding performance." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat demonstrates high performance across various aspects, including semantics, mathematics, reasoning, coding, and knowledge. It also features web browsing, code execution, custom tool invocation, and long text reasoning, supporting 26 languages including Japanese, Korean, and German." + }, "glm-4-air": { "description": "GLM-4-Air is a cost-effective version with performance close to GLM-4, offering fast speed at an affordable price." }, diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index c31daee638960..ab97a63e599b7 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI is a leading provider of advanced language model services, focusing on functional calling and multimodal processing. Its latest model, Firefunction V2, is based on Llama-3, optimized for function calling, conversation, and instruction following. The visual language model FireLLaVA-13B supports mixed input of images and text. Other notable models include the Llama series and Mixtral series, providing efficient multilingual instruction following and generation support." }, + "giteeai": { + "description": "Gitee AI's Serverless API provides ready-to-use large model inference API services for AI developers." + }, "github": { "description": "With GitHub Models, developers can become AI engineers and leverage the industry's leading AI models." }, diff --git a/locales/es-ES/changelog.json b/locales/es-ES/changelog.json new file mode 100644 index 0000000000000..5180dfc75b62c --- /dev/null +++ b/locales/es-ES/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Síguenos en X", + "subscribeToUpdates": "Suscríbete a las actualizaciones", + "versions": "Detalles de la versión" + }, + "addedWhileAway": "Hemos traído nuevas características mientras estabas ausente.", + "allChangelog": "Ver todos los registros de cambios", + "description": "Sigue las nuevas funciones y mejoras de {{appName}}", + "readDetails": "Leer detalles", + "title": "Registro de cambios", + "versionDetails": "Detalles de la versión", + "welcomeBack": "¡Bienvenido de nuevo!" +} diff --git a/locales/es-ES/common.json b/locales/es-ES/common.json index f1dcd1af5db50..c5d966b9b2a90 100644 --- a/locales/es-ES/common.json +++ b/locales/es-ES/common.json @@ -154,6 +154,7 @@ "pinOff": "Quitar fijación", "privacy": "Política de privacidad", "regenerate": "Regenerar", + "releaseNotes": "Detalles de la versión", "rename": "Renombrar", "reset": "Restablecer", "retry": "Reintentar", diff --git a/locales/es-ES/metadata.json b/locales/es-ES/metadata.json index f7fb5943a90cd..f39fbc96a1644 100644 --- a/locales/es-ES/metadata.json +++ b/locales/es-ES/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Sigue las nuevas funciones y mejoras de {{appName}}", + "title": "Registro de cambios" + }, "chat": { "description": "{{appName}} te ofrece la mejor experiencia de uso de ChatGPT, Claude, Gemini y OLLaMA WebUI", "title": "{{appName}}: Herramienta de productividad personal de IA, dale a tu cerebro un impulso más inteligente" diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 6a6ffeb73544b..c7b8c6a9f8c34 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math se centra en la resolución de problemas en el ámbito de las matemáticas, proporcionando respuestas profesionales a preguntas de alta dificultad." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 es la última serie del modelo Qwen, que admite un contexto de 128k. En comparación con los modelos de código abierto más óptimos actuales, Qwen2-72B supera significativamente a los modelos líderes actuales en comprensión del lenguaje natural, conocimiento, código, matemáticas y capacidades multilingües." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 es la última serie del modelo Qwen, capaz de superar a los modelos de código abierto de tamaño equivalente e incluso a modelos de mayor tamaño. Qwen2 7B ha logrado ventajas significativas en múltiples evaluaciones, especialmente en comprensión de código y chino." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct admite un contexto de 16k, generando textos largos de más de 8K. Soporta llamadas a funciones e interacción sin problemas con sistemas externos, lo que mejora enormemente la flexibilidad y escalabilidad. El conocimiento del modelo ha aumentado significativamente, y se ha mejorado considerablemente la capacidad de codificación y matemáticas, con soporte multilingüe para más de 29 idiomas." + }, "SenseChat": { "description": "Modelo de versión básica (V4), longitud de contexto de 4K, con potentes capacidades generales." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large es el modelo MoE de Transformer de código abierto más grande de la industria, con un total de 389 mil millones de parámetros y 52 mil millones de parámetros activados." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, manteniendo la excelente capacidad de lenguaje general de la serie original, ha mejorado significativamente la lógica matemática y la capacidad de codificación mediante un entrenamiento incremental de 500 mil millones de tokens de alta calidad." + }, "abab5.5-chat": { "description": "Orientado a escenarios de productividad, admite el procesamiento de tareas complejas y la generación eficiente de texto, adecuado para aplicaciones en campos profesionales." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 es un potente asistente de programación AI, que admite preguntas y respuestas inteligentes y autocompletado de código en varios lenguajes de programación, mejorando la eficiencia del desarrollo." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B es un modelo de generación de código multilingüe, que admite funciones completas como autocompletado y generación de código, intérprete de código, búsqueda en la web, llamadas a funciones y preguntas y respuestas de código a nivel de repositorio, cubriendo diversos escenarios de desarrollo de software. Es un modelo de generación de código de primer nivel con menos de 10B de parámetros." + }, "codegemma": { "description": "CodeGemma es un modelo de lenguaje ligero especializado en diversas tareas de programación, que admite iteraciones rápidas e integración." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Un nuevo modelo de código abierto que fusiona capacidades generales y de codificación, que no solo conserva la capacidad de diálogo general del modelo Chat original y la potente capacidad de procesamiento de código del modelo Coder, sino que también se alinea mejor con las preferencias humanas. Además, DeepSeek-V2.5 ha logrado mejoras significativas en tareas de escritura, seguimiento de instrucciones y más." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B es un modelo de lenguaje de código, entrenado con 20 billones de datos, de los cuales el 87% son código y el 13% son lenguajes en chino e inglés. El modelo introduce un tamaño de ventana de 16K y tareas de llenado de espacios, proporcionando funciones de autocompletado de código a nivel de proyecto y llenado de fragmentos." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 es un modelo de código de expertos híbrido de código abierto, que destaca en tareas de codificación, comparable a GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 es el modelo de IA multimodal experimental más reciente de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imagen y video, adecuado para una amplia gama de tareas de manera eficiente." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 es el último modelo experimental de IA multimodal de Google, que cuenta con una capacidad de procesamiento rápido y admite entradas de texto, imágenes y videos, adecuado para la escalabilidad eficiente en diversas tareas." + }, "gemma-7b-it": { "description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 es la última versión del modelo, diseñada para tareas altamente complejas y diversas, con un rendimiento excepcional." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat muestra un alto rendimiento en semántica, matemáticas, razonamiento, código y conocimiento. También cuenta con navegación web, ejecución de código, llamadas a herramientas personalizadas y razonamiento de textos largos. Soporta 26 idiomas, incluidos japonés, coreano y alemán." + }, "glm-4-air": { "description": "GLM-4-Air es una versión de alto costo-beneficio, con un rendimiento cercano al GLM-4, ofreciendo velocidad y precios asequibles." }, diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index 9c30c5f9065c2..a970700f486e0 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI es un proveedor líder de servicios de modelos de lenguaje avanzados, enfocado en la llamada de funciones y el procesamiento multimodal. Su modelo más reciente, Firefunction V2, basado en Llama-3, está optimizado para llamadas de funciones, diálogos y seguimiento de instrucciones. El modelo de lenguaje visual FireLLaVA-13B admite entradas mixtas de imágenes y texto. Otros modelos notables incluyen la serie Llama y la serie Mixtral, que ofrecen un soporte eficiente para el seguimiento y generación de instrucciones multilingües." }, + "giteeai": { + "description": "La API Serverless de Gitee AI ofrece a los desarrolladores de IA un servicio de API de inferencia de grandes modelos listo para usar." + }, "github": { "description": "Con los Modelos de GitHub, los desarrolladores pueden convertirse en ingenieros de IA y construir con los modelos de IA líderes en la industria." }, diff --git a/locales/fa-IR/changelog.json b/locales/fa-IR/changelog.json new file mode 100644 index 0000000000000..fa84589cc465b --- /dev/null +++ b/locales/fa-IR/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "ما را در X دنبال کنید", + "subscribeToUpdates": "برای دریافت به‌روزرسانی‌ها مشترک شوید", + "versions": "جزئیات نسخه" + }, + "addedWhileAway": "در زمان غیبت شما، ویژگی‌های جدیدی اضافه کردیم.", + "allChangelog": "تمام تغییرات را مشاهده کنید", + "description": "به‌روزرسانی‌های جدید و بهبودهای {{appName}} را دنبال کنید", + "readDetails": "جزئیات را بخوانید", + "title": "تغییرات", + "versionDetails": "جزئیات نسخه", + "welcomeBack": "خوش آمدید!" +} diff --git a/locales/fa-IR/common.json b/locales/fa-IR/common.json index 0aceabb41e7f3..894ab2ab9d7e9 100644 --- a/locales/fa-IR/common.json +++ b/locales/fa-IR/common.json @@ -154,6 +154,7 @@ "pinOff": "لغو سنجاق کردن", "privacy": "سیاست حفظ حریم خصوصی", "regenerate": "بازتولید", + "releaseNotes": "جزئیات نسخه", "rename": "تغییر نام", "reset": "بازنشانی", "retry": "تلاش مجدد", diff --git a/locales/fa-IR/metadata.json b/locales/fa-IR/metadata.json index 11e9c7e2a1c13..2a617ee17365b 100644 --- a/locales/fa-IR/metadata.json +++ b/locales/fa-IR/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "پیگیری مداوم ویژگی‌ها و بهبودهای جدید {{appName}}", + "title": "گزارش تغییرات" + }, "chat": { "description": "{{appName}} بهترین تجربه استفاده از ChatGPT، Claude، Gemini، OLLaMA WebUI را برای شما به ارمغان می‌آورد", "title": "{{appName}}: ابزار بهره‌وری شخصی AI، به خودتان یک مغز هوشمندتر بدهید" diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index 2c96966edfbcf..d478ffb6ae2c6 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math بر حل مسائل در حوزه ریاضیات تمرکز دارد و پاسخ‌های حرفه‌ای برای مسائل پیچیده ارائه می‌دهد." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 جدیدترین سری مدل‌های Qwen است که از 128k زمینه پشتیبانی می‌کند. در مقایسه با بهترین مدل‌های منبع باز فعلی، Qwen2-72B در درک زبان طبیعی، دانش، کد، ریاضی و چندزبانگی به طور قابل توجهی از مدل‌های پیشرو فعلی فراتر رفته است." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 جدیدترین سری مدل‌های Qwen است که می‌تواند از مدل‌های منبع باز با مقیاس مشابه و حتی مدل‌های بزرگتر فراتر رود. Qwen2 7B در چندین ارزیابی برتری قابل توجهی به دست آورده است، به ویژه در درک کد و زبان چینی." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct از 16k زمینه پشتیبانی می‌کند و قادر به تولید متن‌های طولانی بیش از 8K است. این مدل از تماس‌های تابع و تعامل بدون درز با سیستم‌های خارجی پشتیبانی می‌کند و به طور قابل توجهی انعطاف‌پذیری و گسترش‌پذیری را افزایش می‌دهد. دانش مدل به وضوح افزایش یافته و توانایی‌های کدنویسی و ریاضی به طور چشمگیری بهبود یافته است و از بیش از 29 زبان پشتیبانی می‌کند." + }, "SenseChat": { "description": "نسخه پایه مدل (V4)، طول متن ۴K، با توانایی‌های عمومی قوی" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large بزرگترین مدل MoE با ساختار Transformer متن باز در صنعت است که دارای ۳۸۹۰ میلیارد پارامتر کل و ۵۲۰ میلیارد پارامتر فعال است." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B با حفظ توانایی‌های زبان عمومی عالی مدل‌های قبلی خود، از طریق آموزش افزایشی 500 میلیارد توکن با کیفیت بالا، به طور قابل توجهی توانایی‌های منطقی ریاضی و کدنویسی را افزایش داده است." + }, "abab5.5-chat": { "description": "برای سناریوهای بهره‌وری طراحی شده است، از پردازش وظایف پیچیده و تولید متن کارآمد پشتیبانی می‌کند و برای کاربردهای حرفه‌ای مناسب است." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 یک دستیار برنامه‌نویسی قدرتمند مبتنی بر هوش مصنوعی است که از پرسش و پاسخ هوشمند و تکمیل کد در زبان‌های برنامه‌نویسی مختلف پشتیبانی می‌کند و بهره‌وری توسعه را افزایش می‌دهد." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانگی است که از قابلیت‌های جامع شامل تکمیل و تولید کد، مفسر کد، جستجوی وب، تماس با توابع و پرسش و پاسخ کد در سطح مخزن پشتیبانی می‌کند و تمام سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های تولید کد با پارامترهای کمتر از 10B است." + }, "codegemma": { "description": "CodeGemma یک مدل زبانی سبک برای وظایف مختلف برنامه‌نویسی است که از تکرار سریع و یکپارچه‌سازی پشتیبانی می‌کند." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "مدل متن‌باز جدیدی که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل نه تنها توانایی گفتگوی عمومی مدل Chat و توانایی قدرتمند پردازش کد مدل Coder را حفظ کرده است، بلکه به ترجیحات انسانی نیز بهتر همسو شده است. علاوه بر این، DeepSeek-V2.5 در وظایف نوشتاری، پیروی از دستورات و سایر جنبه‌ها نیز بهبودهای قابل توجهی داشته است." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B یک مدل زبان کد است که بر اساس 20 تریلیون داده آموزش دیده است، که 87% آن کد و 13% آن زبان‌های چینی و انگلیسی است. این مدل اندازه پنجره 16K و وظایف پر کردن جا را معرفی می‌کند و قابلیت تکمیل کد و پر کردن قطعات در سطح پروژه را ارائه می‌دهد." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 یک مدل کد نویسی ترکیبی و متن‌باز است که در وظایف کدنویسی عملکرد عالی دارد و با GPT4-Turbo قابل مقایسه است." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 جدیدترین مدل AI چند وجهی تجربی Google است که دارای قابلیت پردازش سریع می‌باشد و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش مؤثر در چندین وظیفه مناسب است." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 جدیدترین مدل آزمایشی چندرسانه‌ای AI گوگل است که دارای قابلیت پردازش سریع بوده و از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند و برای گسترش کارآمد در انواع وظایف مناسب است." + }, "gemma-7b-it": { "description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع طراحی شده و عملکردی عالی دارد." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat در زمینه‌های معنایی، ریاضی، استدلال، کد و دانش عملکرد بالایی از خود نشان می‌دهد. همچنین دارای قابلیت مرور وب، اجرای کد، تماس با ابزارهای سفارشی و استدلال متن‌های طولانی است. از 26 زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند." + }, "glm-4-air": { "description": "GLM-4-Air نسخه‌ای با صرفه اقتصادی است که عملکردی نزدیک به GLM-4 دارد و سرعت بالا و قیمت مناسبی را ارائه می‌دهد." }, diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json index 1d1eb8e0fd1fe..2d6f56a062976 100644 --- a/locales/fa-IR/providers.json +++ b/locales/fa-IR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI یک ارائه‌دهنده پیشرو در خدمات مدل‌های زبان پیشرفته است که بر فراخوانی توابع و پردازش چندوجهی تمرکز دارد. جدیدترین مدل آن، Firefunction V2، بر اساس Llama-3 ساخته شده و برای فراخوانی توابع، مکالمه و پیروی از دستورات بهینه‌سازی شده است. مدل زبان تصویری FireLLaVA-13B از ورودی‌های ترکیبی تصویر و متن پشتیبانی می‌کند. سایر مدل‌های قابل توجه شامل سری Llama و سری Mixtral هستند که پشتیبانی کارآمدی از پیروی دستورات چندزبانه و تولید ارائه می‌دهند." }, + "giteeai": { + "description": "API بدون سرور Gitee AI خدمات API استنتاج مدل‌های بزرگ را به‌صورت آماده برای توسعه‌دهندگان هوش مصنوعی ارائه می‌دهد." + }, "github": { "description": "با استفاده از مدل GitHub، توسعه‌دهندگان می‌توانند به مهندسین هوش مصنوعی تبدیل شوند و با استفاده از مدل‌های پیشرو در صنعت، ساخت و ساز کنند." }, diff --git a/locales/fr-FR/changelog.json b/locales/fr-FR/changelog.json new file mode 100644 index 0000000000000..edd7603d4626e --- /dev/null +++ b/locales/fr-FR/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Suivez-nous sur X", + "subscribeToUpdates": "Abonnez-vous aux mises à jour", + "versions": "Détails de la version" + }, + "addedWhileAway": "Nous avons ajouté de nouvelles fonctionnalités pendant votre absence.", + "allChangelog": "Voir tous les journaux de mise à jour", + "description": "Suivez en continu les nouvelles fonctionnalités et améliorations de {{appName}}", + "readDetails": "Lire les détails", + "title": "Journal des mises à jour", + "versionDetails": "Détails de la version", + "welcomeBack": "Bienvenue de nouveau!" +} diff --git a/locales/fr-FR/common.json b/locales/fr-FR/common.json index d5d647c9a3129..e187f7adcd1e3 100644 --- a/locales/fr-FR/common.json +++ b/locales/fr-FR/common.json @@ -154,6 +154,7 @@ "pinOff": "Désactiver l'épinglage", "privacy": "Politique de confidentialité", "regenerate": "Régénérer", + "releaseNotes": "Détails de la version", "rename": "Renommer", "reset": "Réinitialiser", "retry": "Réessayer", diff --git a/locales/fr-FR/metadata.json b/locales/fr-FR/metadata.json index ca1d97690462c..b53a646432ef2 100644 --- a/locales/fr-FR/metadata.json +++ b/locales/fr-FR/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Suivez les nouvelles fonctionnalités et améliorations de {{appName}}", + "title": "Journal des mises à jour" + }, "chat": { "description": "{{appName}} vous offre la meilleure expérience d'utilisation de ChatGPT, Claude, Gemini et OLLaMA WebUI", "title": "{{appName}} : un outil d'efficacité personnelle en IA pour vous donner un cerveau plus intelligent" diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index ff9f81bbdf7ad..a2f67b0824acc 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math se concentre sur la résolution de problèmes dans le domaine des mathématiques, fournissant des réponses professionnelles pour des questions de haute difficulté." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 est la dernière série du modèle Qwen, prenant en charge un contexte de 128k. Comparé aux meilleurs modèles open source actuels, Qwen2-72B surpasse de manière significative les modèles leaders dans des domaines tels que la compréhension du langage naturel, les connaissances, le codage, les mathématiques et le multilinguisme." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 est la dernière série du modèle Qwen, capable de surpasser les meilleurs modèles open source de taille équivalente, voire de plus grande taille. Qwen2 7B a obtenu des avantages significatifs dans plusieurs évaluations, en particulier en ce qui concerne le codage et la compréhension du chinois." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct prend en charge un contexte de 16k, générant des textes longs de plus de 8K. Il permet des appels de fonction et une interaction transparente avec des systèmes externes, augmentant considérablement la flexibilité et l'évolutivité. Les connaissances du modèle ont considérablement augmenté, et ses capacités en codage et en mathématiques ont été grandement améliorées, avec un support multilingue dépassant 29 langues." + }, "SenseChat": { "description": "Modèle de version de base (V4), longueur de contexte de 4K, avec de puissantes capacités générales." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large est le plus grand modèle MoE à architecture Transformer open source de l'industrie, avec un total de 389 milliards de paramètres et 52 milliards de paramètres activés." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, tout en maintenant les excellentes capacités linguistiques générales de la série originale, a considérablement amélioré la logique mathématique et les capacités de codage grâce à un entraînement incrémental de 500 milliards de tokens de haute qualité." + }, "abab5.5-chat": { "description": "Orienté vers des scénarios de productivité, prenant en charge le traitement de tâches complexes et la génération de texte efficace, adapté aux applications professionnelles." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 est un puissant assistant de programmation AI, prenant en charge des questions intelligentes et l'achèvement de code dans divers langages de programmation, améliorant l'efficacité du développement." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B est un modèle de génération de code multilingue, offrant des fonctionnalités complètes, y compris la complétion et la génération de code, un interpréteur de code, une recherche sur le web, des appels de fonctions et des questions-réponses sur le code au niveau des dépôts, couvrant divers scénarios de développement logiciel. C'est un modèle de génération de code de premier plan avec moins de 10B de paramètres." + }, "codegemma": { "description": "CodeGemma est un modèle de langage léger dédié à différentes tâches de programmation, prenant en charge une itération et une intégration rapides." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Un nouveau modèle open source qui fusionne des capacités générales et de code, conservant non seulement la capacité de dialogue général du modèle Chat d'origine et la puissante capacité de traitement de code du modèle Coder, mais s'alignant également mieux sur les préférences humaines. De plus, DeepSeek-V2.5 a réalisé des améliorations significatives dans plusieurs domaines tels que les tâches d'écriture et le suivi des instructions." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B est un modèle de langage de code, entraîné sur 20 trillions de données, dont 87 % sont du code et 13 % sont en chinois et en anglais. Le modèle introduit une taille de fenêtre de 16K et des tâches de remplissage, offrant des fonctionnalités de complétion de code et de remplissage de fragments au niveau des projets." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 est un modèle de code open source de type expert mixte, performant dans les tâches de code, rivalisant avec GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 est le dernier modèle d'IA multimodale expérimental de Google, offrant une capacité de traitement rapide, prenant en charge les entrées de texte, d'image et de vidéo, et permettant une extension efficace pour une variété de tâches." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 est le dernier modèle d'IA multimodal expérimental de Google, capable de traiter rapidement des entrées textuelles, d'images et de vidéos, et adapté à une large gamme de tâches avec une efficacité accrue." + }, "gemma-7b-it": { "description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 est la dernière version du modèle, conçue pour des tâches hautement complexes et diversifiées, avec des performances exceptionnelles." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat affiche de bonnes performances dans divers domaines tels que la sémantique, les mathématiques, le raisonnement, le codage et les connaissances. Il dispose également de fonctionnalités de navigation sur le web, d'exécution de code, d'appels d'outils personnalisés et de raisonnement sur de longs textes. Il prend en charge 26 langues, y compris le japonais, le coréen et l'allemand." + }, "glm-4-air": { "description": "GLM-4-Air est une version économique, offrant des performances proches de GLM-4, avec une rapidité et un prix abordable." }, diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 28943c70332f3..ba0a8c48ad25e 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI est un fournisseur de services de modèles linguistiques avancés, axé sur les appels de fonction et le traitement multimodal. Son dernier modèle, Firefunction V2, basé sur Llama-3, est optimisé pour les appels de fonction, les dialogues et le suivi des instructions. Le modèle de langage visuel FireLLaVA-13B prend en charge les entrées mixtes d'images et de texte. D'autres modèles notables incluent la série Llama et la série Mixtral, offrant un support efficace pour le suivi et la génération d'instructions multilingues." }, + "giteeai": { + "description": "L'API Serverless de Gitee AI offre aux développeurs d'IA un service d'API de raisonnement de grands modèles prêt à l'emploi." + }, "github": { "description": "Avec les modèles GitHub, les développeurs peuvent devenir des ingénieurs en IA et créer avec les modèles d'IA les plus avancés de l'industrie." }, diff --git a/locales/it-IT/changelog.json b/locales/it-IT/changelog.json new file mode 100644 index 0000000000000..00816ff32e22d --- /dev/null +++ b/locales/it-IT/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Seguici su X", + "subscribeToUpdates": "Iscriviti agli aggiornamenti", + "versions": "Dettagli versione" + }, + "addedWhileAway": "Abbiamo introdotto nuove funzionalità mentre eri via.", + "allChangelog": "Visualizza tutti i registri delle modifiche", + "description": "Tieni traccia delle nuove funzionalità e miglioramenti di {{appName}}", + "readDetails": "Leggi i dettagli", + "title": "Registro delle modifiche", + "versionDetails": "Dettagli versione", + "welcomeBack": "Bentornato!" +} diff --git a/locales/it-IT/common.json b/locales/it-IT/common.json index 48ee9ad838cef..4c0b308896df5 100644 --- a/locales/it-IT/common.json +++ b/locales/it-IT/common.json @@ -154,6 +154,7 @@ "pinOff": "Annulla fissaggio", "privacy": "Informativa sulla privacy", "regenerate": "Rigenera", + "releaseNotes": "Dettagli della versione", "rename": "Rinomina", "reset": "Ripristina", "retry": "Riprova", diff --git a/locales/it-IT/metadata.json b/locales/it-IT/metadata.json index 31549cc2110da..327cf6c2d17c1 100644 --- a/locales/it-IT/metadata.json +++ b/locales/it-IT/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Segui le nuove funzionalità e i miglioramenti di {{appName}}", + "title": "Registro delle modifiche" + }, "chat": { "description": "{{appName}} ti offre la migliore esperienza con ChatGPT, Claude, Gemini e OLLaMA WebUI", "title": "{{appName}}: strumento di efficienza personale AI, per darti un cervello più intelligente" diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index 861aa57d022c9..9e03cbffd8326 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math si concentra sulla risoluzione di problemi nel campo della matematica, fornendo risposte professionali a domande di alta difficoltà." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 è l'ultima serie del modello Qwen, supporta un contesto di 128k, e rispetto ai modelli open source attualmente migliori, Qwen2-72B supera significativamente i modelli leader attuali in comprensione del linguaggio naturale, conoscenza, codice, matematica e capacità multilingue." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 è l'ultima serie del modello Qwen, in grado di superare i modelli open source ottimali di dimensioni simili e anche modelli di dimensioni maggiori. Qwen2 7B ha ottenuto vantaggi significativi in vari test, in particolare nella comprensione del codice e del cinese." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct supporta un contesto di 16k, generando testi lunghi oltre 8K. Supporta chiamate di funzione e interazioni senza soluzione di continuità con sistemi esterni, aumentando notevolmente flessibilità e scalabilità. La conoscenza del modello è notevolmente aumentata e ha migliorato significativamente le capacità di codifica e matematica, con supporto per oltre 29 lingue." + }, "SenseChat": { "description": "Modello di base (V4), lunghezza del contesto di 4K, con potenti capacità generali." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large è il modello MoE con architettura Transformer open source più grande del settore, con un totale di 389 miliardi di parametri e 52 miliardi di parametri attivi." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, mantenendo le eccellenti capacità linguistiche generali della serie originale, ha notevolmente migliorato la logica matematica e le capacità di codifica attraverso un addestramento incrementale su 500 miliardi di token di alta qualità." + }, "abab5.5-chat": { "description": "Focalizzato su scenari di produttività, supporta l'elaborazione di compiti complessi e la generazione di testo efficiente, adatto per applicazioni professionali." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 è un potente assistente di programmazione AI, supporta domande intelligenti e completamento del codice in vari linguaggi di programmazione, migliorando l'efficienza dello sviluppo." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B è un modello di generazione di codice multilingue, supporta funzionalità complete tra cui completamento e generazione di codice, interprete di codice, ricerca in rete, chiamate di funzione e domande e risposte sul codice a livello di repository, coprendo vari scenari di sviluppo software. È un modello di generazione di codice di punta con meno di 10B di parametri." + }, "codegemma": { "description": "CodeGemma è un modello linguistico leggero dedicato a vari compiti di programmazione, supporta iterazioni rapide e integrazione." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Un nuovo modello open source che integra capacità generali e di codifica, mantenendo non solo le capacità conversazionali generali del modello Chat originale, ma anche la potente capacità di elaborazione del codice del modello Coder, allineandosi meglio alle preferenze umane. Inoltre, DeepSeek-V2.5 ha ottenuto notevoli miglioramenti in vari aspetti, come i compiti di scrittura e il rispetto delle istruzioni." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B è un modello di linguaggio per codice, addestrato su 20 trilioni di dati, di cui l'87% è codice e il 13% è in cinese e inglese. Il modello introduce una dimensione della finestra di 16K e compiti di completamento, fornendo funzionalità di completamento del codice e riempimento di frammenti a livello di progetto." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 è un modello di codice open source di esperti misti, eccelle nei compiti di codice, paragonabile a GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 è il modello AI multimodale sperimentale più recente di Google, dotato di capacità di elaborazione rapida, supporta input testuali, visivi e video, ed è adatto per un'ampia gamma di compiti con un'efficiente scalabilità." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 è il più recente modello AI multimodale sperimentale di Google, dotato di capacità di elaborazione rapida, supporta input di testo, immagini e video, ed è adatto per un'ampia gamma di compiti con un'efficace scalabilità." + }, "gemma-7b-it": { "description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati, con prestazioni eccezionali." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat mostra elevate prestazioni in vari aspetti come semantica, matematica, ragionamento, codice e conoscenza. Ha anche la capacità di navigare in rete, eseguire codice, chiamare strumenti personalizzati e inferire testi lunghi. Supporta 26 lingue, tra cui giapponese, coreano e tedesco." + }, "glm-4-air": { "description": "GLM-4-Air è una versione economica, con prestazioni simili a GLM-4, che offre velocità elevate a un prezzo accessibile." }, diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index cf77a9901993a..3ab748b387512 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI è un fornitore leader di servizi di modelli linguistici avanzati, focalizzato su chiamate funzionali e elaborazione multimodale. Il suo ultimo modello Firefunction V2, basato su Llama-3, è ottimizzato per chiamate di funzione, dialogo e rispetto delle istruzioni. Il modello di linguaggio visivo FireLLaVA-13B supporta input misti di immagini e testo. Altri modelli notevoli includono la serie Llama e la serie Mixtral, offrendo supporto efficiente per il rispetto e la generazione di istruzioni multilingue." }, + "giteeai": { + "description": "L'API Serverless di Gitee AI offre agli sviluppatori AI un servizio API di inferenza di grandi modelli pronto all'uso." + }, "github": { "description": "Con i modelli di GitHub, gli sviluppatori possono diventare ingegneri AI e costruire con i modelli AI leader del settore." }, diff --git a/locales/ja-JP/changelog.json b/locales/ja-JP/changelog.json new file mode 100644 index 0000000000000..3660b206e28ff --- /dev/null +++ b/locales/ja-JP/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Xで私たちをフォロー", + "subscribeToUpdates": "更新を購読", + "versions": "バージョンの詳細" + }, + "addedWhileAway": "あなたが離れている間に、新しい機能を追加しました。", + "allChangelog": "すべての更新ログを見る", + "description": "{{appName}}の新機能と改善を継続的に追跡", + "readDetails": "詳細を読む", + "title": "更新ログ", + "versionDetails": "バージョンの詳細", + "welcomeBack": "お帰りなさい!" +} diff --git a/locales/ja-JP/common.json b/locales/ja-JP/common.json index 6ef81bbfe4935..49b1e57fb6a30 100644 --- a/locales/ja-JP/common.json +++ b/locales/ja-JP/common.json @@ -154,6 +154,7 @@ "pinOff": "ピン留め解除", "privacy": "プライバシーポリシー", "regenerate": "再生成", + "releaseNotes": "リリースノート", "rename": "名前を変更", "reset": "リセット", "retry": "再試行", diff --git a/locales/ja-JP/metadata.json b/locales/ja-JP/metadata.json index fbc4bcf97a8e9..45ae6d803f0e6 100644 --- a/locales/ja-JP/metadata.json +++ b/locales/ja-JP/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "{{appName}} の新機能と改善を継続的に追跡する", + "title": "更新履歴" + }, "chat": { "description": "{{appName}}が提供する最高のChatGPT、Claude、Gemini、OLLaMA WebUIの体験", "title": "{{appName}}:個人AI効率ツール、より賢い脳を手に入れよう" diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 6efc76ca55a2a..29b5fc7ebd797 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Mathは、数学分野の問題解決に特化しており、高難度の問題に対して専門的な解答を提供します。" }, + "Qwen2-72B-Instruct": { + "description": "Qwen2はQwenモデルの最新シリーズで、128kのコンテキストをサポートしています。現在の最適なオープンソースモデルと比較して、Qwen2-72Bは自然言語理解、知識、コード、数学、そして多言語などの能力において、現在のリーディングモデルを著しく上回っています。" + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2はQwenモデルの最新シリーズで、同等規模の最適なオープンソースモデルやそれ以上の規模のモデルを超えることができ、Qwen2 7Bは複数の評価で顕著な優位性を示し、特にコードと中国語理解において優れた成果を上げています。" + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instructは、16kのコンテキストをサポートし、8Kを超える長文を生成します。関数呼び出しと外部システムとのシームレスなインタラクションをサポートし、柔軟性と拡張性を大幅に向上させました。モデルの知識は明らかに増加し、コーディングと数学の能力が大幅に向上し、29以上の言語をサポートしています。" + }, "SenseChat": { "description": "基本バージョンのモデル (V4)、4Kのコンテキスト長で、汎用能力が強力です。" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Largeは業界最大のオープンソースTransformerアーキテクチャMoEモデルで、3890億の総パラメータ数と520億のアクティブパラメータ数を持っています。" }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34Bは、元のシリーズモデルの優れた汎用言語能力を維持しつつ、5000億の高品質トークンを増分トレーニングすることで、数学的論理とコーディング能力を大幅に向上させました。" + }, "abab5.5-chat": { "description": "生産性シーン向けであり、複雑なタスク処理と効率的なテキスト生成をサポートし、専門分野のアプリケーションに適しています。" }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4は強力なAIプログラミングアシスタントで、さまざまなプログラミング言語のインテリジェントな質問応答とコード補完をサポートし、開発効率を向上させます。" }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9Bは、マルチ言語コード生成モデルで、コード補完と生成、コードインタープリター、ウェブ検索、関数呼び出し、リポジトリレベルのコードQ&Aを含む包括的な機能をサポートし、ソフトウェア開発のさまざまなシナリオをカバーしています。パラメータが10B未満のトップクラスのコード生成モデルです。" + }, "codegemma": { "description": "CodeGemmaは、さまざまなプログラミングタスクに特化した軽量言語モデルであり、迅速な反復と統合をサポートします。" }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "一般的な対話能力と強力なコード処理能力を兼ね備えた新しいオープンソースモデルであり、元のChatモデルの対話能力とCoderモデルのコード処理能力を保持しつつ、人間の好みにより良く整合しています。さらに、DeepSeek-V2.5は、執筆タスクや指示に従う能力など、さまざまな面で大幅な向上を実現しました。" }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33Bは、コード言語モデルで、2兆のデータでトレーニングされ、そのうち87%がコード、13%が中英語です。モデルは16Kのウィンドウサイズと穴埋めタスクを導入し、プロジェクトレベルのコード補完とスニペット埋め機能を提供します。" + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2は、オープンソースの混合エキスパートコードモデルであり、コードタスクにおいて優れた性能を発揮し、GPT4-Turboに匹敵します。" }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114は、Googleの最新の実験的なマルチモーダルAIモデルで、迅速な処理能力を備え、テキスト、画像、動画の入力をサポートし、様々なタスクに効率的に対応できます。" }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121は、Googleの最新の実験的なマルチモーダルAIモデルで、高速処理能力を備え、テキスト、画像、動画の入力をサポートし、さまざまなタスクに対して効率的に拡張できます。" + }, "gemma-7b-it": { "description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。" }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520は最新のモデルバージョンで、高度に複雑で多様なタスクのために設計され、優れたパフォーマンスを発揮します。" }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chatは、意味、数学、推論、コード、知識などの多方面で高い性能を示しています。また、ウェブブラウジング、コード実行、カスタムツール呼び出し、長文推論を備えています。日本語、韓国語、ドイツ語を含む26の言語をサポートしています。" + }, "glm-4-air": { "description": "GLM-4-Airはコストパフォーマンスが高いバージョンで、GLM-4に近い性能を提供し、高速かつ手頃な価格です。" }, diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index f5a1df847e4a1..6d58ff0fb0954 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AIは、先進的な言語モデルサービスのリーダーであり、機能呼び出しと多モーダル処理に特化しています。最新のモデルFirefunction V2はLlama-3に基づいており、関数呼び出し、対話、指示の遵守に最適化されています。視覚言語モデルFireLLaVA-13Bは、画像とテキストの混合入力をサポートしています。他の注目すべきモデルには、LlamaシリーズやMixtralシリーズがあり、高効率の多言語指示遵守と生成サポートを提供しています。" }, + "giteeai": { + "description": "Gitee AIのサーバーレスAPIは、AI開発者に対して、すぐに使える大規模モデル推論APIサービスを提供します。" + }, "github": { "description": "GitHubモデルを使用することで、開発者はAIエンジニアになり、業界をリードするAIモデルを使って構築できます。" }, diff --git a/locales/ko-KR/changelog.json b/locales/ko-KR/changelog.json new file mode 100644 index 0000000000000..a0c1e93351219 --- /dev/null +++ b/locales/ko-KR/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "X에서 저희를 팔로우하세요", + "subscribeToUpdates": "업데이트 구독하기", + "versions": "버전 세부정보" + }, + "addedWhileAway": "귀하가 떠나 있는 동안 새로운 기능이 추가되었습니다.", + "allChangelog": "모든 업데이트 로그 보기", + "description": "{{appName}}의 새로운 기능과 개선 사항을 지속적으로 추적하세요", + "readDetails": "자세히 읽기", + "title": "업데이트 로그", + "versionDetails": "버전 세부정보", + "welcomeBack": "다시 오신 것을 환영합니다!" +} diff --git a/locales/ko-KR/common.json b/locales/ko-KR/common.json index b7a400f36f37a..0ff8699c030be 100644 --- a/locales/ko-KR/common.json +++ b/locales/ko-KR/common.json @@ -154,6 +154,7 @@ "pinOff": "고정 해제", "privacy": "개인정보 보호 정책", "regenerate": "재생성", + "releaseNotes": "버전 세부정보", "rename": "이름 바꾸기", "reset": "재설정", "retry": "재시도", diff --git a/locales/ko-KR/metadata.json b/locales/ko-KR/metadata.json index 6cd12c3655b33..eb8174efc9627 100644 --- a/locales/ko-KR/metadata.json +++ b/locales/ko-KR/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "{{appName}}의 새로운 기능과 개선 사항을 지속적으로 추적합니다.", + "title": "변경 로그" + }, "chat": { "description": "{{appName}}가 제공하는 최고의 ChatGPT, Claude, Gemini, OLLaMA WebUI 사용 경험", "title": "{{appName}}: 개인 AI 효율 도구, 더 똑똑한 두뇌를 위한 선택" diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 4647ae0ee8d19..c7e1525d68799 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math는 수학 분야의 문제 해결에 중점을 두고 있으며, 고난이도 문제에 대한 전문적인 해답을 제공합니다." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 128k 컨텍스트를 지원합니다. 현재 최상의 오픈 소스 모델과 비교할 때, Qwen2-72B는 자연어 이해, 지식, 코드, 수학 및 다국어 등 여러 능력에서 현재 선도하는 모델을 현저히 초월합니다." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2는 Qwen 모델의 최신 시리즈로, 동등한 규모의 최적 오픈 소스 모델은 물론 더 큰 규모의 모델을 초월할 수 있습니다. Qwen2 7B는 여러 평가에서 현저한 우위를 차지하였으며, 특히 코드 및 중국어 이해에서 두드러진 성과를 보였습니다." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct는 16k 컨텍스트를 지원하며, 8K를 초과하는 긴 텍스트를 생성할 수 있습니다. 함수 호출과 외부 시스템과의 원활한 상호작용을 지원하여 유연성과 확장성을 크게 향상시킵니다. 모델의 지식이 현저히 증가하였으며, 인코딩 및 수학 능력이 크게 향상되었고, 29개 이상의 언어를 지원합니다." + }, "SenseChat": { "description": "기본 버전 모델(V4), 4K 컨텍스트 길이, 일반적인 능력이 강력합니다." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large는 업계에서 가장 큰 오픈 소스 Transformer 아키텍처 MoE 모델로, 총 3890억 개의 매개변수와 520억 개의 활성 매개변수를 가지고 있습니다." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B는 원래 시리즈 모델의 뛰어난 일반 언어 능력을 유지하면서, 5천억 개의 고품질 토큰을 통해 점진적으로 훈련하여 수학적 논리 및 코드 능력을 크게 향상시켰습니다." + }, "abab5.5-chat": { "description": "생산성 시나리오를 위해 설계되었으며, 복잡한 작업 처리 및 효율적인 텍스트 생성을 지원하여 전문 분야 응용에 적합합니다." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4는 강력한 AI 프로그래밍 도우미로, 다양한 프로그래밍 언어에 대한 스마트 Q&A 및 코드 완성을 지원하여 개발 효율성을 높입니다." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B는 다국어 코드 생성 모델로, 코드 완성 및 생성, 코드 해석기, 웹 검색, 함수 호출, 저장소 수준의 코드 질문 응답 등 소프트웨어 개발의 다양한 시나리오를 포괄하는 종합 기능을 지원합니다. 10B 미만의 매개변수를 가진 최고의 코드 생성 모델입니다." + }, "codegemma": { "description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 언어 모델로, 빠른 반복 및 통합을 지원합니다." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "일반 및 코드 능력을 융합한 새로운 오픈 소스 모델로, 기존 Chat 모델의 일반 대화 능력과 Coder 모델의 강력한 코드 처리 능력을 유지하면서 인간의 선호에 더 잘 맞춰졌습니다. 또한, DeepSeek-V2.5는 작문 작업, 지시 따르기 등 여러 측면에서 큰 향상을 이루었습니다." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B는 코드 언어 모델로, 20조 개의 데이터로 훈련되었으며, 그 중 87%는 코드, 13%는 중문 및 영문입니다. 모델은 16K 창 크기와 빈칸 채우기 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 채우기 기능을 제공합니다." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2는 오픈 소스 혼합 전문가 코드 모델로, 코드 작업에서 뛰어난 성능을 발휘하며, GPT4-Turbo와 경쟁할 수 있습니다." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114는 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며, 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121은 Google의 최신 실험적 다중 모달 AI 모델로, 빠른 처리 능력을 갖추고 있으며 텍스트, 이미지 및 비디오 입력을 지원하여 다양한 작업에 효율적으로 확장할 수 있습니다." + }, "gemma-7b-it": { "description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520은 최신 모델 버전으로, 매우 복잡하고 다양한 작업을 위해 설계되어 뛰어난 성능을 발휘합니다." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat은 의미, 수학, 추론, 코드 및 지식 등 여러 분야에서 높은 성능을 보입니다. 또한 웹 브라우징, 코드 실행, 사용자 정의 도구 호출 및 긴 텍스트 추론 기능을 갖추고 있습니다. 일본어, 한국어, 독일어를 포함한 26개 언어를 지원합니다." + }, "glm-4-air": { "description": "GLM-4-Air는 가성비가 높은 버전으로, GLM-4에 가까운 성능을 제공하며 빠른 속도와 저렴한 가격을 자랑합니다." }, diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index 825c45dba5449..cb258bc01b8b1 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI는 기능 호출 및 다중 모드 처리를 전문으로 하는 선도적인 고급 언어 모델 서비스 제공업체입니다. 최신 모델인 Firefunction V2는 Llama-3를 기반으로 하며, 함수 호출, 대화 및 지시 따르기에 최적화되어 있습니다. 비주얼 언어 모델인 FireLLaVA-13B는 이미지와 텍스트 혼합 입력을 지원합니다. 기타 주목할 만한 모델로는 Llama 시리즈와 Mixtral 시리즈가 있으며, 효율적인 다국어 지시 따르기 및 생성 지원을 제공합니다." }, + "giteeai": { + "description": "Gitee AI의 서버리스 API는 AI 개발자에게 즉시 사용할 수 있는 대형 모델 추론 API 서비스를 제공합니다." + }, "github": { "description": "GitHub 모델을 통해 개발자는 AI 엔지니어가 되어 업계 최고의 AI 모델로 구축할 수 있습니다." }, diff --git a/locales/nl-NL/changelog.json b/locales/nl-NL/changelog.json new file mode 100644 index 0000000000000..40d7a3fa1e355 --- /dev/null +++ b/locales/nl-NL/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Volg ons op X", + "subscribeToUpdates": "Abonneer op updates", + "versions": "Versie details" + }, + "addedWhileAway": "We hebben nieuwe functies toegevoegd terwijl je weg was.", + "allChangelog": "Bekijk alle changelogs", + "description": "Blijf op de hoogte van nieuwe functies en verbeteringen van {{appName}}", + "readDetails": "Lees meer", + "title": "Changelog", + "versionDetails": "Versie details", + "welcomeBack": "Welkom terug!" +} diff --git a/locales/nl-NL/common.json b/locales/nl-NL/common.json index 6efd2d2a5a9a8..9a32ff26d8bcb 100644 --- a/locales/nl-NL/common.json +++ b/locales/nl-NL/common.json @@ -154,6 +154,7 @@ "pinOff": "Vastzetten uitschakelen", "privacy": "Privacybeleid", "regenerate": "Opnieuw genereren", + "releaseNotes": "Versie details", "rename": "Naam wijzigen", "reset": "Resetten", "retry": "Opnieuw proberen", diff --git a/locales/nl-NL/metadata.json b/locales/nl-NL/metadata.json index 2bf20a555ce6a..1571cfb3d1673 100644 --- a/locales/nl-NL/metadata.json +++ b/locales/nl-NL/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Blijf op de hoogte van nieuwe functies en verbeteringen van {{appName}}", + "title": "Wijzigingslog" + }, "chat": { "description": "{{appName}} biedt je de beste ervaring met ChatGPT, Claude, Gemini, en OLLaMA WebUI", "title": "{{appName}}: Persoonlijke AI-efficiëntietool, geef jezelf een slimmer brein" diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 3cbe517d5d663..ae4c79cd6fd09 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math richt zich op het oplossen van wiskundige vraagstukken en biedt professionele antwoorden op moeilijke vragen." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat 128k context ondersteunt. In vergelijking met de huidige beste open-source modellen, overtreft Qwen2-72B op het gebied van natuurlijke taalbegrip, kennis, code, wiskunde en meertaligheid aanzienlijk de huidige toonaangevende modellen." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 is de nieuwste serie van het Qwen-model, dat in staat is om de beste open-source modellen van gelijke grootte of zelfs grotere modellen te overtreffen. Qwen2 7B heeft aanzienlijke voordelen behaald in verschillende evaluaties, vooral op het gebied van code en begrip van het Chinees." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct ondersteunt 16k context en genereert lange teksten van meer dan 8K. Het ondersteunt functieaanroepen en naadloze interactie met externe systemen, wat de flexibiliteit en schaalbaarheid aanzienlijk vergroot. De kennis van het model is duidelijk toegenomen en de codering en wiskundige vaardigheden zijn sterk verbeterd, met ondersteuning voor meer dan 29 talen." + }, "SenseChat": { "description": "Basisversie van het model (V4), met een contextlengte van 4K, heeft sterke algemene capaciteiten." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large is het grootste open source Transformer-architectuur MoE-model in de industrie, met een totaal van 389 miljard parameters en 52 miljard geactiveerde parameters." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B heeft de uitstekende algemene taalvaardigheden van de oorspronkelijke modelserie behouden en heeft door incrementele training van 500 miljard hoogwaardige tokens de wiskundige logica en codevaardigheden aanzienlijk verbeterd." + }, "abab5.5-chat": { "description": "Gericht op productiviteitsscenario's, ondersteunt complexe taakverwerking en efficiënte tekstgeneratie, geschikt voor professionele toepassingen." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 is een krachtige AI-programmeerassistent die slimme vraag- en antwoordmogelijkheden en code-aanvulling ondersteunt voor verschillende programmeertalen, waardoor de ontwikkelingssnelheid wordt verhoogd." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat uitgebreide functionaliteit biedt, waaronder code-aanvulling en -generatie, code-interpreter, webzoekfunctie, functieaanroepen en repository-niveau codevragen, en dekt verschillende scenario's in softwareontwikkeling. Het is een top codegeneratiemodel met minder dan 10B parameters." + }, "codegemma": { "description": "CodeGemma is een lichtgewicht taalmodel dat speciaal is ontworpen voor verschillende programmeertaken, ondersteunt snelle iteratie en integratie." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Een nieuw open-source model dat algemene en code-capaciteiten combineert, behoudt niet alleen de algemene conversatiecapaciteiten van het oorspronkelijke Chat-model en de krachtige codeverwerkingscapaciteiten van het Coder-model, maar is ook beter afgestemd op menselijke voorkeuren. Bovendien heeft DeepSeek-V2.5 aanzienlijke verbeteringen gerealiseerd in schrijfopdrachten, instructievolging en andere gebieden." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B is een code-taalmodel, getraind op 20 biljoen gegevens, waarvan 87% code en 13% in het Chinees en Engels. Het model introduceert een venstergrootte van 16K en invultaken, en biedt projectniveau code-aanvulling en fragmentinvulfunctionaliteit." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 is een open-source hybride expertcode-model, presteert uitstekend in code-taken en is vergelijkbaar met GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 is Google's nieuwste experimentele multimodale AI-model, met een snelle verwerkingscapaciteit, ondersteunt tekst-, beeld- en video-invoer, geschikt voor efficiënte schaling van diverse taken." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 is Google's nieuwste experimentele multimodale AI-model, dat snel kan verwerken en ondersteuning biedt voor tekst-, beeld- en video-invoer, geschikt voor efficiënte opschaling van verschillende taken." + }, "gemma-7b-it": { "description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 is de nieuwste modelversie, speciaal ontworpen voor zeer complexe en diverse taken, met uitstekende prestaties." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat presteert goed op het gebied van semantiek, wiskunde, redeneren, code en kennis. Het beschikt ook over webbrowserfunctionaliteit, code-uitvoering, aangepaste toolaanroepen en lange tekstredenering. Ondersteunt 26 talen, waaronder Japans, Koreaans en Duits." + }, "glm-4-air": { "description": "GLM-4-Air is een kosteneffectieve versie met prestaties die dicht bij GLM-4 liggen, met snelle snelheid en een betaalbare prijs." }, diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index bd59423bb76c5..c7d975eb64ce8 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI is een toonaangevende aanbieder van geavanceerde taalmodellen, met een focus op functionele aanroepen en multimodale verwerking. Hun nieuwste model Firefunction V2 is gebaseerd op Llama-3 en geoptimaliseerd voor functieaanroepen, dialogen en het volgen van instructies. Het visuele taalmodel FireLLaVA-13B ondersteunt gemengde invoer van afbeeldingen en tekst. Andere opmerkelijke modellen zijn de Llama-serie en de Mixtral-serie, die efficiënte ondersteuning bieden voor meertalig volgen van instructies en genereren." }, + "giteeai": { + "description": "De Serverless API van Gitee AI biedt AI-ontwikkelaars kant-en-klare API-diensten voor inferentie met grote modellen." + }, "github": { "description": "Met GitHub-modellen kunnen ontwikkelaars AI-ingenieurs worden en bouwen met de toonaangevende AI-modellen in de industrie." }, diff --git a/locales/pl-PL/changelog.json b/locales/pl-PL/changelog.json new file mode 100644 index 0000000000000..1e08315fa9300 --- /dev/null +++ b/locales/pl-PL/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Obserwuj nas na X", + "subscribeToUpdates": "Subskrybuj aktualizacje", + "versions": "Szczegóły wersji" + }, + "addedWhileAway": "W czasie Twojej nieobecności wprowadziliśmy nowe funkcje.", + "allChangelog": "Zobacz wszystkie dzienniki zmian", + "description": "Na bieżąco śledź nowe funkcje i ulepszenia {{appName}}", + "readDetails": "Przeczytaj szczegóły", + "title": "Dziennik zmian", + "versionDetails": "Szczegóły wersji", + "welcomeBack": "Witaj z powrotem!" +} diff --git a/locales/pl-PL/common.json b/locales/pl-PL/common.json index 82aa8830fa2d1..eb6d8a2f39930 100644 --- a/locales/pl-PL/common.json +++ b/locales/pl-PL/common.json @@ -154,6 +154,7 @@ "pinOff": "Odepnij", "privacy": "Polityka prywatności", "regenerate": "Regeneruj", + "releaseNotes": "Szczegóły wersji", "rename": "Zmień nazwę", "reset": "Resetuj", "retry": "Ponów", diff --git a/locales/pl-PL/metadata.json b/locales/pl-PL/metadata.json index abfb8db716b6b..c5533eb576850 100644 --- a/locales/pl-PL/metadata.json +++ b/locales/pl-PL/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Bieżące śledzenie nowych funkcji i ulepszeń {{appName}}", + "title": "Dziennik zmian" + }, "chat": { "description": "{{appName}} oferuje najlepsze doświadczenia z ChatGPT, Claude, Gemini, OLLaMA WebUI", "title": "{{appName}}: osobiste narzędzie AI, które daje ci mądrzejszy umysł" diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index 0cdef041e56bb..2d4ce8591f2f5 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math koncentruje się na rozwiązywaniu problemów w dziedzinie matematyki, oferując profesjonalne odpowiedzi na trudne pytania." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 to najnowsza seria modeli Qwen, obsługująca kontekst 128k. W porównaniu do obecnie najlepszych modeli open source, Qwen2-72B znacznie przewyższa w zakresie rozumienia języka naturalnego, wiedzy, kodowania, matematyki oraz wielojęzyczności." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 to najnowsza seria modeli Qwen, która potrafi przewyższyć najlepsze modele open source o podobnej skali, a nawet większe. Qwen2 7B osiągnął znaczną przewagę w wielu testach, szczególnie w zakresie rozumienia kodu i języka chińskiego." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct obsługuje kontekst 16k, generując długie teksty przekraczające 8K. Wspiera wywołania funkcji oraz bezproblemową interakcję z systemami zewnętrznymi, co znacznie zwiększa elastyczność i skalowalność. Wiedza modelu znacznie wzrosła, a jego zdolności w zakresie kodowania i matematyki uległy znacznemu poprawieniu, z obsługą ponad 29 języków." + }, "SenseChat": { "description": "Podstawowa wersja modelu (V4), długość kontekstu 4K, silne zdolności ogólne." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large to największy w branży otwarty model Transformer MoE, z 389 miliardami parametrów ogółem i 52 miliardami aktywowanych parametrów." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, zachowując doskonałe ogólne zdolności językowe oryginalnej serii modeli, znacznie poprawił zdolności logiczne w matematyce i kodowaniu dzięki dodatkowym treningom na 500 miliardach wysokiej jakości tokenów." + }, "abab5.5-chat": { "description": "Skierowany do scenariuszy produkcyjnych, wspierający przetwarzanie złożonych zadań i efektywne generowanie tekstu, odpowiedni do zastosowań w profesjonalnych dziedzinach." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 to potężny asystent programowania AI, obsługujący inteligentne pytania i odpowiedzi oraz uzupełnianie kodu w różnych językach programowania, zwiększając wydajność programistów." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B to model generowania kodu wielojęzycznego, który oferuje kompleksowe funkcje, w tym uzupełnianie i generowanie kodu, interpreter kodu, wyszukiwanie w sieci, wywoływanie funkcji oraz pytania i odpowiedzi na poziomie repozytoriów, obejmujące różne scenariusze rozwoju oprogramowania. Jest to wiodący model generowania kodu z mniej niż 10B parametrów." + }, "codegemma": { "description": "CodeGemma to lekki model językowy, specjalizujący się w różnych zadaniach programistycznych, wspierający szybkie iteracje i integrację." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Nowy otwarty model łączący zdolności ogólne i kodowe, który nie tylko zachowuje ogólne zdolności dialogowe oryginalnego modelu czatu i potężne zdolności przetwarzania kodu modelu Coder, ale także lepiej dostosowuje się do ludzkich preferencji. Ponadto, DeepSeek-V2.5 osiągnął znaczne poprawy w zadaniach pisarskich, przestrzeganiu instrukcji i innych obszarach." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B to model języka kodu, wytrenowany na 20 bilionach danych, z czego 87% stanowi kod, a 13% to języki chiński i angielski. Model wprowadza okno o rozmiarze 16K oraz zadania uzupełniania, oferując funkcje uzupełniania kodu na poziomie projektu oraz wypełniania fragmentów." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 to otwarty model kodowy Mixture-of-Experts, który doskonale radzi sobie z zadaniami kodowymi, porównywalny z GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 to najnowszy eksperymentalny model AI o wielu modalnościach od Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe oraz wideo, co umożliwia wydajne rozszerzanie go na różne zadania." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 to najnowszy eksperymentalny model AI wielomodalnego od Google, który charakteryzuje się szybkim przetwarzaniem i obsługuje wejścia tekstowe, obrazowe i wideo, co czyni go efektywnym narzędziem do rozwiązywania różnych zadań." + }, "gemma-7b-it": { "description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do wysoko złożonych i zróżnicowanych zadań, z doskonałymi wynikami." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat wykazuje wysoką wydajność w wielu aspektach, takich jak semantyka, matematyka, wnioskowanie, kodowanie i wiedza. Posiada również funkcje przeglądania stron internetowych, wykonywania kodu, wywoływania niestandardowych narzędzi oraz wnioskowania z długich tekstów. Obsługuje 26 języków, w tym japoński, koreański i niemiecki." + }, "glm-4-air": { "description": "GLM-4-Air to opłacalna wersja, której wydajność jest zbliżona do GLM-4, oferująca szybkie działanie i przystępną cenę." }, diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index 30d88d66b868d..845d9fc756d17 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI to wiodący dostawca zaawansowanych modeli językowych, skoncentrowany na wywołaniach funkcji i przetwarzaniu multimodalnym. Jego najnowszy model Firefunction V2 oparty na Llama-3, zoptymalizowany do wywołań funkcji, dialogów i przestrzegania instrukcji. Model wizualny FireLLaVA-13B wspiera mieszane wejścia obrazów i tekstu. Inne znaczące modele to seria Llama i seria Mixtral, oferujące efektywne wsparcie dla wielojęzycznego przestrzegania instrukcji i generacji." }, + "giteeai": { + "description": "Serverless API Gitee AI oferuje gotowe do użycia usługi API do wnioskowania z dużych modeli dla deweloperów AI." + }, "github": { "description": "Dzięki modelom GitHub, deweloperzy mogą stać się inżynierami AI i budować z wykorzystaniem wiodących modeli AI w branży." }, diff --git a/locales/pt-BR/changelog.json b/locales/pt-BR/changelog.json new file mode 100644 index 0000000000000..4a055007b9478 --- /dev/null +++ b/locales/pt-BR/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Siga-nos no X", + "subscribeToUpdates": "Inscreva-se para atualizações", + "versions": "Detalhes da versão" + }, + "addedWhileAway": "Trouxemos novos recursos enquanto você estava ausente.", + "allChangelog": "Veja todos os registros de alterações", + "description": "Acompanhe as novas funcionalidades e melhorias do {{appName}}", + "readDetails": "Leia os detalhes", + "title": "Registro de Atualizações", + "versionDetails": "Detalhes da versão", + "welcomeBack": "Bem-vindo de volta!" +} diff --git a/locales/pt-BR/common.json b/locales/pt-BR/common.json index a74bef1612a47..edd882d98e2e6 100644 --- a/locales/pt-BR/common.json +++ b/locales/pt-BR/common.json @@ -154,6 +154,7 @@ "pinOff": "Desafixar", "privacy": "Política de Privacidade", "regenerate": "Regenerar", + "releaseNotes": "Notas da versão", "rename": "Renomear", "reset": "Redefinir", "retry": "Tentar novamente", diff --git a/locales/pt-BR/metadata.json b/locales/pt-BR/metadata.json index ff207209901a3..adceb37d8ea8b 100644 --- a/locales/pt-BR/metadata.json +++ b/locales/pt-BR/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Acompanhe as novas funcionalidades e melhorias do {{appName}}", + "title": "Registro de Atualizações" + }, "chat": { "description": "{{appName}} traz a você a melhor experiência de uso do ChatGPT, Claude, Gemini e OLLaMA WebUI", "title": "{{appName}}: Ferramenta de eficiência pessoal em IA, dê a si mesmo um cérebro mais inteligente" diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 211ce0f50801e..aeebbaee777ea 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math foca na resolução de problemas na área de matemática, oferecendo respostas especializadas para questões de alta dificuldade." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 é a mais recente série do modelo Qwen, suportando 128k de contexto. Em comparação com os melhores modelos de código aberto atuais, o Qwen2-72B supera significativamente os modelos líderes em várias capacidades, incluindo compreensão de linguagem natural, conhecimento, código, matemática e multilinguismo." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 é a mais recente série do modelo Qwen, capaz de superar modelos de código aberto de tamanho equivalente e até mesmo modelos de maior escala. O Qwen2 7B obteve vantagens significativas em várias avaliações, especialmente em compreensão de código e chinês." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct suporta 16k de contexto, gerando textos longos superiores a 8K. Suporta chamadas de função e interação sem costura com sistemas externos, aumentando significativamente a flexibilidade e escalabilidade. O conhecimento do modelo aumentou consideravelmente, e suas habilidades em codificação e matemática melhoraram muito, com suporte a mais de 29 idiomas." + }, "SenseChat": { "description": "Modelo da versão básica (V4), com comprimento de contexto de 4K, com capacidades gerais poderosas." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large é o maior modelo MoE de arquitetura Transformer open source da indústria, com um total de 389 bilhões de parâmetros e 52 bilhões de parâmetros ativados." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, mantendo as excelentes habilidades linguísticas do modelo original, aumentou significativamente suas capacidades de lógica matemática e codificação através de treinamento incremental com 500 bilhões de tokens de alta qualidade." + }, "abab5.5-chat": { "description": "Voltado para cenários de produtividade, suportando o processamento de tarefas complexas e geração de texto eficiente, adequado para aplicações em áreas profissionais." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "O CodeGeeX-4 é um poderoso assistente de programação AI, suportando perguntas e respostas inteligentes e autocompletar em várias linguagens de programação, aumentando a eficiência do desenvolvimento." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue, suportando funcionalidades abrangentes, incluindo completude e geração de código, interpretador de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo diversos cenários de desenvolvimento de software. É um dos principais modelos de geração de código com menos de 10B de parâmetros." + }, "codegemma": { "description": "CodeGemma é um modelo de linguagem leve especializado em diferentes tarefas de programação, suportando iterações rápidas e integração." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Um novo modelo de código aberto que combina capacidades gerais e de codificação, não apenas preservando a capacidade de diálogo geral do modelo Chat original e a poderosa capacidade de processamento de código do modelo Coder, mas também alinhando-se melhor às preferências humanas. Além disso, o DeepSeek-V2.5 também alcançou melhorias significativas em várias áreas, como tarefas de escrita e seguimento de instruções." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B é um modelo de linguagem de código, treinado com 20 trilhões de dados, dos quais 87% são código e 13% são em chinês e inglês. O modelo introduz um tamanho de janela de 16K e tarefas de preenchimento, oferecendo funcionalidades de completude de código e preenchimento de fragmentos em nível de projeto." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 é um modelo de código de especialistas abertos, destacando-se em tarefas de codificação, comparável ao GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "O Gemini Exp 1114 é o mais recente modelo experimental de IA multimodal da Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a expansão eficiente de várias tarefas." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 é o mais recente modelo experimental de IA multimodal do Google, com capacidade de processamento rápido, suportando entradas de texto, imagem e vídeo, adequado para a escalabilidade eficiente em várias tarefas." + }, "gemma-7b-it": { "description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "O GLM-4-0520 é a versão mais recente do modelo, projetada para tarefas altamente complexas e diversificadas, com desempenho excepcional." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat apresenta alto desempenho em semântica, matemática, raciocínio, código e conhecimento. Também possui navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio de textos longos. Suporta 26 idiomas, incluindo japonês, coreano e alemão." + }, "glm-4-air": { "description": "O GLM-4-Air é uma versão econômica, com desempenho próximo ao GLM-4, oferecendo alta velocidade a um preço acessível." }, diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index d128507238549..542f38d372a13 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI é um fornecedor líder de serviços de modelos de linguagem avançados, focando em chamadas de função e processamento multimodal. Seu modelo mais recente, Firefunction V2, baseado em Llama-3, é otimizado para chamadas de função, diálogos e seguimento de instruções. O modelo de linguagem visual FireLLaVA-13B suporta entradas mistas de imagem e texto. Outros modelos notáveis incluem a série Llama e a série Mixtral, oferecendo suporte eficiente para seguimento e geração de instruções multilíngues." }, + "giteeai": { + "description": "A API Serverless do Gitee AI oferece serviços de API de inferência de grandes modelos prontos para uso para desenvolvedores de IA." + }, "github": { "description": "Com os Modelos do GitHub, os desenvolvedores podem se tornar engenheiros de IA e construir com os principais modelos de IA da indústria." }, diff --git a/locales/ru-RU/changelog.json b/locales/ru-RU/changelog.json new file mode 100644 index 0000000000000..48983bb6be215 --- /dev/null +++ b/locales/ru-RU/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Подписывайтесь на нас в X", + "subscribeToUpdates": "Подписаться на обновления", + "versions": "Детали версий" + }, + "addedWhileAway": "Мы добавили новые функции, пока вы отсутствовали.", + "allChangelog": "Просмотреть все журналы изменений", + "description": "Постоянно следите за новыми функциями и улучшениями {{appName}}", + "readDetails": "Читать детали", + "title": "Журнал изменений", + "versionDetails": "Детали версий", + "welcomeBack": "С возвращением!" +} diff --git a/locales/ru-RU/common.json b/locales/ru-RU/common.json index fe782d0b62746..a6530153abecd 100644 --- a/locales/ru-RU/common.json +++ b/locales/ru-RU/common.json @@ -154,6 +154,7 @@ "pinOff": "Открепить", "privacy": "Политика конфиденциальности", "regenerate": "Перегенерировать", + "releaseNotes": "Подробности о версии", "rename": "Переименовать", "reset": "Сброс", "retry": "Повторить", diff --git a/locales/ru-RU/metadata.json b/locales/ru-RU/metadata.json index d5ac78f4701e2..6c72fb5f74aff 100644 --- a/locales/ru-RU/metadata.json +++ b/locales/ru-RU/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Постоянно следите за новыми функциями и улучшениями {{appName}}", + "title": "Журнал изменений" + }, "chat": { "description": "{{appName}} предлагает вам лучший опыт использования ChatGPT, Claude, Gemini и OLLaMA WebUI", "title": "{{appName}}: личный инструмент AI для повышения эффективности, дайте себе более умный мозг" diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index b499ea6f45777..752987263c9c8 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math сосредоточен на решении математических задач, предоставляя профессиональные ответы на сложные вопросы." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 — это последняя серия моделей Qwen, поддерживающая контекст до 128k. По сравнению с текущими лучшими открытыми моделями, Qwen2-72B значительно превосходит ведущие модели по многим аспектам, включая понимание естественного языка, знания, код, математику и многоязычность." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 — это последняя серия моделей Qwen, способная превосходить лучшие открытые модели сопоставимого размера и даже более крупные модели. Qwen2 7B демонстрирует значительные преимущества в нескольких тестах, особенно в понимании кода и китайского языка." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct поддерживает контекст до 16k, генерируя длинные тексты более 8K. Поддерживает вызовы функций и бесшовное взаимодействие с внешними системами, значительно увеличивая гибкость и масштабируемость. Знания модели значительно увеличены, а способности в кодировании и математике значительно улучшены, поддерживает более 29 языков." + }, "SenseChat": { "description": "Базовая версия модели (V4), длина контекста 4K, обладает мощными универсальными возможностями." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large — это крупнейшая в отрасли открытая модель Transformer архитектуры MoE с общим количеством параметров 389 миллиардов и 52 миллиарда активных параметров." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, сохраняя выдающиеся универсальные языковые способности оригинальной серии моделей, значительно улучшил математическую логику и способности к кодированию благодаря инкрементальному обучению на 500 миллиардов высококачественных токенов." + }, "abab5.5-chat": { "description": "Ориентирован на производственные сценарии, поддерживает обработку сложных задач и эффективную генерацию текста, подходит для профессиональных приложений." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 — это мощный AI помощник по программированию, поддерживающий интеллектуальные ответы и автозаполнение кода на различных языках программирования, повышая эффективность разработки." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B — это многоязычная модель генерации кода, поддерживающая полный спектр функций, включая автозаполнение и генерацию кода, интерпретатор кода, веб-поиск, вызовы функций и вопросы по коду на уровне репозитория, охватывающая различные сценарии разработки программного обеспечения. Это одна из лучших моделей генерации кода с количеством параметров менее 10B." + }, "codegemma": { "description": "CodeGemma — это легковесная языковая модель, специально разработанная для различных задач программирования, поддерживающая быструю итерацию и интеграцию." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Новая открытая модель, объединяющая общие и кодовые возможности, не только сохраняет общие диалоговые способности оригинальной модели Chat и мощные возможности обработки кода модели Coder, но и лучше согласуется с человеческими предпочтениями. Кроме того, DeepSeek-V2.5 значительно улучшила производительность в таких задачах, как написание текстов и следование инструкциям." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B — это модель языкового кода, обученная на 20 триллионах данных, из которых 87% составляют код, а 13% — китайский и английский языки. Модель использует размер окна 16K и задачи заполнения пропусков, предоставляя функции автозаполнения кода и заполнения фрагментов на уровне проектов." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 — это открытая смешанная экспертная модель кода, показывающая отличные результаты в задачах кода, сопоставимая с GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 — это новейшая экспериментальная многомодальная ИИ модель от Google, обладающая высокой скоростью обработки и поддерживающая текстовые, изображенческие и видеовходы, что позволяет эффективно расширять применение для различных задач." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 — это последняя экспериментальная многомодальная AI модель от Google, обладающая высокой скоростью обработки, поддерживающая текстовые, графические и видео входы, подходящая для эффективного масштабирования различных задач." + }, "gemma-7b-it": { "description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 — это последняя версия модели, специально разработанная для высоко сложных и разнообразных задач, демонстрирующая выдающиеся результаты." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat демонстрирует высокую производительность в семантике, математике, логике, коде и знаниях. Также поддерживает веб-браузинг, выполнение кода, вызовы пользовательских инструментов и длинное текстовое рассуждение. Поддерживает 26 языков, включая японский, корейский и немецкий." + }, "glm-4-air": { "description": "GLM-4-Air — это экономически эффективная версия, производительность которой близка к GLM-4, обеспечивая высокую скорость и доступную цену." }, diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index 383a856117846..a2d678f32a72a 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI — это ведущий поставщик высококлассных языковых моделей, сосредоточенный на вызовах функций и мультимодальной обработке. Их последняя модель Firefunction V2 основана на Llama-3 и оптимизирована для вызовов функций, диалогов и выполнения инструкций. Модель визуального языка FireLLaVA-13B поддерживает смешанный ввод изображений и текста. Другие заметные модели включают серию Llama и серию Mixtral, предлагая эффективную поддержку многоязычных инструкций и генерации." }, + "giteeai": { + "description": "Серверный API Gitee AI предоставляет разработчикам ИИ готовый к использованию сервис API для вывода больших моделей." + }, "github": { "description": "С помощью моделей GitHub разработчики могут стать инженерами ИИ и создавать с использованием ведущих моделей ИИ в отрасли." }, diff --git a/locales/tr-TR/changelog.json b/locales/tr-TR/changelog.json new file mode 100644 index 0000000000000..2aade975e9324 --- /dev/null +++ b/locales/tr-TR/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Bizi X'te takip edin", + "subscribeToUpdates": "Güncellemeleri abone olun", + "versions": "Sürüm detayları" + }, + "addedWhileAway": "Siz yokken yeni özellikler ekledik.", + "allChangelog": "Tüm güncelleme günlüklerini görüntüle", + "description": "{{appName}}'in yeni özelliklerini ve iyileştirmelerini sürekli takip edin", + "readDetails": "Detayları okuyun", + "title": "Güncelleme Günlüğü", + "versionDetails": "Sürüm detayları", + "welcomeBack": "Hoş geldiniz!" +} diff --git a/locales/tr-TR/common.json b/locales/tr-TR/common.json index 91727802c579f..c5895179e212e 100644 --- a/locales/tr-TR/common.json +++ b/locales/tr-TR/common.json @@ -154,6 +154,7 @@ "pinOff": "Unpin", "privacy": "Gizlilik Politikası", "regenerate": "Tekrarla", + "releaseNotes": "Sürüm Detayları", "rename": "Yeniden İsimlendir", "reset": "Reset", "retry": "Yeniden Dene", diff --git a/locales/tr-TR/metadata.json b/locales/tr-TR/metadata.json index 66892ae765022..1f71c962df9da 100644 --- a/locales/tr-TR/metadata.json +++ b/locales/tr-TR/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "{{appName}}'in yeni özelliklerini ve iyileştirmelerini sürekli takip edin", + "title": "Güncelleme Geçmişi" + }, "chat": { "description": "{{appName}} size en iyi ChatGPT, Claude, Gemini, OLLaMA WebUI deneyimini sunar", "title": "{{appName}}: Kişisel AI verimlilik aracı, kendinize daha akıllı bir zihin verin" diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 31be6def624b6..180dfb1222bfa 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math, matematik alanındaki sorunları çözmeye odaklanır ve yüksek zorlukta sorulara profesyonel yanıtlar sunar." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2, Qwen modelinin en son serisidir ve 128k bağlamı destekler. Mevcut en iyi açık kaynak modellerle karşılaştırıldığında, Qwen2-72B doğal dil anlama, bilgi, kod, matematik ve çok dilli yetenekler gibi birçok alanda mevcut lider modelleri önemli ölçüde aşmaktadır." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2, Qwen modelinin en son serisidir ve eşit ölçekli en iyi açık kaynak modelleri hatta daha büyük ölçekli modelleri aşabilmektedir. Qwen2 7B, birçok değerlendirmede belirgin bir avantaj elde etmiş, özellikle kod ve Çince anlama konusunda." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct, 16k bağlamı destekler ve 8K'dan uzun metinler üretebilir. Fonksiyon çağrısı ile dış sistemlerle sorunsuz etkileşim sağlar, esneklik ve ölçeklenebilirliği büyük ölçüde artırır. Modelin bilgisi belirgin şekilde artmış ve kodlama ile matematik yetenekleri büyük ölçüde geliştirilmiştir, 29'dan fazla dil desteği sunmaktadır." + }, "SenseChat": { "description": "Temel sürüm model (V4), 4K bağlam uzunluğu ile genel yetenekleri güçlüdür." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large, sektördeki en büyük açık kaynaklı Transformer mimarisi MoE modelidir ve toplam 389 milyar parametre ile 52 milyar etkin parametreye sahiptir." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, orijinal model serisinin mükemmel genel dil yeteneklerini korurken, 500 milyar yüksek kaliteli token ile artımlı eğitim sayesinde matematiksel mantık ve kodlama yeteneklerini büyük ölçüde artırmıştır." + }, "abab5.5-chat": { "description": "Üretkenlik senaryoları için tasarlanmış, karmaşık görev işleme ve verimli metin üretimini destekler, profesyonel alan uygulamaları için uygundur." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4, çeşitli programlama dillerinde akıllı soru-cevap ve kod tamamlama desteği sunan güçlü bir AI programlama asistanıdır, geliştirme verimliliğini artırır." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B, çok dilli bir kod oluşturma modelidir. Kod tamamlama ve oluşturma, kod yorumlayıcı, web arama, fonksiyon çağrısı, depo düzeyinde kod soru-cevap gibi kapsamlı işlevleri destekler ve yazılım geliştirme için çeşitli senaryoları kapsar. 10B'den az parametreye sahip en iyi kod oluşturma modelidir." + }, "codegemma": { "description": "CodeGemma, farklı programlama görevleri için özel olarak tasarlanmış hafif bir dil modelidir, hızlı iterasyon ve entegrasyonu destekler." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli, yalnızca mevcut Chat modelinin genel diyalog yeteneklerini ve Coder modelinin güçlü kod işleme yeteneklerini korumakla kalmaz, aynı zamanda insan tercihleri ile daha iyi hizalanmıştır. Ayrıca, DeepSeek-V2.5 yazım görevleri, talimat takibi gibi birçok alanda büyük iyileştirmeler sağlamıştır." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B, 20 trilyon veri ile eğitilmiş bir kod dili modelidir. Bunun %87'si kod, %13'ü ise Çince ve İngilizce dillerindendir. Model, 16K pencere boyutu ve boşluk doldurma görevini tanıtarak proje düzeyinde kod tamamlama ve parça doldurma işlevi sunmaktadır." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2, açık kaynaklı bir karışık uzman kod modelidir, kod görevlerinde mükemmel performans sergiler ve GPT4-Turbo ile karşılaştırılabilir." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114, Google'ın en son deneysel çok modlu AI modeli olup, hızlı işleme yeteneğine sahip, metin, görüntü ve video girişlerini desteklemekte ve çeşitli görevlerde verimli bir şekilde ölçeklenmektedir." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121, Google'un en son deneysel çok modlu AI modelidir. Hızlı işlem yeteneğine sahip olup, metin, görüntü ve video girişi destekler ve çeşitli görevler için verimli bir şekilde ölçeklenebilir." + }, "gemma-7b-it": { "description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model versiyonudur, olağanüstü performans sergiler." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat, anlam, matematik, akıl yürütme, kod ve bilgi gibi birçok alanda yüksek performans göstermektedir. Ayrıca web tarayıcı, kod yürütme, özel araç çağrısı ve uzun metin akıl yürütme yeteneklerine sahiptir. Japonca, Korece, Almanca dahil olmak üzere 26 dil desteklemektedir." + }, "glm-4-air": { "description": "GLM-4-Air, maliyet etkin bir versiyondur, GLM-4'e yakın performans sunar ve hızlı hız ve uygun fiyat sağlar." }, diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 4b3d1c38422c7..ef3780de485b6 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI, işlev çağrısı ve çok modlu işleme üzerine odaklanan önde gelen bir gelişmiş dil modeli hizmet sağlayıcısıdır. En son modeli Firefunction V2, Llama-3 tabanlıdır ve işlev çağrısı, diyalog ve talimat takibi için optimize edilmiştir. Görsel dil modeli FireLLaVA-13B, görüntü ve metin karışık girişi desteklemektedir. Diğer dikkat çekici modeller arasında Llama serisi ve Mixtral serisi bulunmaktadır ve etkili çok dilli talimat takibi ve üretim desteği sunmaktadır." }, + "giteeai": { + "description": "Gitee AI'nin Sunucusuz API'si, AI geliştiricilerine kutudan çıkar çıkmaz büyük model çıkarım API hizmeti sunar." + }, "github": { "description": "GitHub Modelleri ile geliştiriciler, AI mühendisleri olabilir ve sektörün önde gelen AI modelleri ile inşa edebilirler." }, diff --git a/locales/vi-VN/changelog.json b/locales/vi-VN/changelog.json new file mode 100644 index 0000000000000..fff4e2cf8440c --- /dev/null +++ b/locales/vi-VN/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "Theo dõi chúng tôi trên X", + "subscribeToUpdates": "Đăng ký nhận cập nhật", + "versions": "Chi tiết phiên bản" + }, + "addedWhileAway": "Chúng tôi đã mang đến những tính năng mới trong thời gian bạn vắng mặt.", + "allChangelog": "Xem tất cả nhật ký cập nhật", + "description": "Theo dõi các tính năng và cải tiến mới của {{appName}}", + "readDetails": "Đọc chi tiết", + "title": "Nhật ký cập nhật", + "versionDetails": "Chi tiết phiên bản", + "welcomeBack": "Chào mừng bạn trở lại!" +} diff --git a/locales/vi-VN/common.json b/locales/vi-VN/common.json index e8e3d3fe83a8f..3d9445d19c18c 100644 --- a/locales/vi-VN/common.json +++ b/locales/vi-VN/common.json @@ -154,6 +154,7 @@ "pinOff": "Bỏ ghim", "privacy": "Chính sách bảo mật", "regenerate": "Tạo lại", + "releaseNotes": "Chi tiết phiên bản", "rename": "Đổi tên", "reset": "Đặt lại", "retry": "Thử lại", diff --git a/locales/vi-VN/metadata.json b/locales/vi-VN/metadata.json index 365a60c611150..8a21cdc5bc2c8 100644 --- a/locales/vi-VN/metadata.json +++ b/locales/vi-VN/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "Theo dõi các tính năng và cải tiến mới của {{appName}}", + "title": "Nhật ký cập nhật" + }, "chat": { "description": "{{appName}} mang đến cho bạn trải nghiệm tốt nhất với ChatGPT, Claude, Gemini, OLLaMA WebUI", "title": "{{appName}}: Công cụ AI cá nhân, giúp bạn có một bộ não thông minh hơn" diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 4746ffff5cc2d..29b031bfe8036 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math tập trung vào việc giải quyết các vấn đề trong lĩnh vực toán học, cung cấp giải pháp chuyên nghiệp cho các bài toán khó." }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 là dòng mô hình mới nhất của Qwen, hỗ trợ ngữ cảnh 128k, so với các mô hình mã nguồn mở tốt nhất hiện tại, Qwen2-72B vượt trội hơn hẳn trong nhiều khả năng như hiểu ngôn ngữ tự nhiên, kiến thức, mã, toán học và đa ngôn ngữ." + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 là dòng mô hình mới nhất của Qwen, có khả năng vượt qua các mô hình mã nguồn mở cùng quy mô hoặc thậm chí lớn hơn, Qwen2 7B đạt được lợi thế đáng kể trong nhiều bài kiểm tra, đặc biệt là trong việc hiểu mã và tiếng Trung." + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct hỗ trợ ngữ cảnh 16k, tạo ra văn bản dài hơn 8K. Hỗ trợ gọi hàm và tương tác liền mạch với hệ thống bên ngoài, nâng cao đáng kể tính linh hoạt và khả năng mở rộng. Kiến thức của mô hình đã tăng lên rõ rệt và khả năng mã hóa cũng như toán học được cải thiện đáng kể, hỗ trợ hơn 29 ngôn ngữ." + }, "SenseChat": { "description": "Mô hình phiên bản cơ bản (V4), độ dài ngữ cảnh 4K, khả năng tổng quát mạnh mẽ." }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large là mô hình MoE kiến trúc Transformer mã nguồn mở lớn nhất trong ngành, với tổng số tham số là 3890 tỷ và 52 tỷ tham số kích hoạt." }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B, trong khi vẫn giữ được khả năng ngôn ngữ chung xuất sắc của dòng mô hình gốc, đã tăng cường đào tạo 500 tỷ token chất lượng cao, nâng cao đáng kể khả năng logic toán học và mã." + }, "abab5.5-chat": { "description": "Hướng đến các tình huống sản xuất, hỗ trợ xử lý nhiệm vụ phức tạp và sinh văn bản hiệu quả, phù hợp cho các ứng dụng trong lĩnh vực chuyên môn." }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ, hỗ trợ nhiều ngôn ngữ lập trình với câu hỏi thông minh và hoàn thành mã, nâng cao hiệu suất phát triển." }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B là một mô hình tạo mã đa ngôn ngữ, hỗ trợ các chức năng toàn diện bao gồm hoàn thành và tạo mã, trình giải thích mã, tìm kiếm trên mạng, gọi hàm, và hỏi đáp mã cấp kho, bao phủ nhiều tình huống trong phát triển phần mềm. Đây là mô hình tạo mã hàng đầu với số tham số dưới 10B." + }, "codegemma": { "description": "CodeGemma là mô hình ngôn ngữ nhẹ chuyên dụng cho các nhiệm vụ lập trình khác nhau, hỗ trợ lặp lại và tích hợp nhanh chóng." }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "Mô hình mã nguồn mở mới kết hợp khả năng tổng quát và mã, không chỉ giữ lại khả năng đối thoại tổng quát của mô hình Chat ban đầu và khả năng xử lý mã mạnh mẽ của mô hình Coder, mà còn tốt hơn trong việc phù hợp với sở thích của con người. Hơn nữa, DeepSeek-V2.5 cũng đã đạt được sự cải thiện lớn trong nhiều khía cạnh như nhiệm vụ viết, theo dõi chỉ dẫn." }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B là một mô hình ngôn ngữ mã, được đào tạo trên 20 triệu tỷ dữ liệu, trong đó 87% là mã và 13% là ngôn ngữ Trung và Anh. Mô hình này giới thiệu kích thước cửa sổ 16K và nhiệm vụ điền chỗ trống, cung cấp chức năng hoàn thành mã và điền đoạn mã ở cấp độ dự án." + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 là mô hình mã nguồn mở hỗn hợp chuyên gia, thể hiện xuất sắc trong các nhiệm vụ mã, tương đương với GPT4-Turbo." }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp với việc mở rộng hiệu quả cho nhiều nhiệm vụ." }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 là mô hình AI đa phương thức thử nghiệm mới nhất của Google, có khả năng xử lý nhanh chóng, hỗ trợ đầu vào văn bản, hình ảnh và video, phù hợp cho việc mở rộng hiệu quả cho nhiều nhiệm vụ." + }, "gemma-7b-it": { "description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí." }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các nhiệm vụ phức tạp và đa dạng, thể hiện xuất sắc." }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat thể hiện hiệu suất cao trong nhiều lĩnh vực như ngữ nghĩa, toán học, suy luận, mã và kiến thức. Nó còn có khả năng duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài. Hỗ trợ 26 ngôn ngữ, bao gồm tiếng Nhật, tiếng Hàn và tiếng Đức." + }, "glm-4-air": { "description": "GLM-4-Air là phiên bản có giá trị sử dụng cao, hiệu suất gần giống GLM-4, cung cấp tốc độ nhanh và giá cả phải chăng." }, diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index 4cd5633be6be8..08cd582a27418 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI là nhà cung cấp dịch vụ mô hình ngôn ngữ cao cấp hàng đầu, tập trung vào gọi chức năng và xử lý đa phương thức. Mô hình mới nhất của họ, Firefunction V2, dựa trên Llama-3, được tối ưu hóa cho gọi chức năng, đối thoại và tuân theo chỉ dẫn. Mô hình ngôn ngữ hình ảnh FireLLaVA-13B hỗ trợ đầu vào hỗn hợp hình ảnh và văn bản. Các mô hình đáng chú ý khác bao gồm dòng Llama và dòng Mixtral, cung cấp hỗ trợ cho việc tuân theo và tạo ra chỉ dẫn đa ngôn ngữ hiệu quả." }, + "giteeai": { + "description": "API Serverless của Gitee AI cung cấp dịch vụ API suy diễn mô hình lớn sẵn sàng cho các nhà phát triển AI." + }, "github": { "description": "Với GitHub Models, các nhà phát triển có thể trở thành kỹ sư AI và xây dựng với các mô hình AI hàng đầu trong ngành." }, diff --git a/locales/zh-CN/changelog.json b/locales/zh-CN/changelog.json new file mode 100644 index 0000000000000..b6dc4100dcaf1 --- /dev/null +++ b/locales/zh-CN/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "在 X 上关注我们", + "subscribeToUpdates": "订阅更新", + "versions": "版本详情" + }, + "addedWhileAway": "在您离开期间,我们带来了新的特性。", + "allChangelog": "查看所有更新日志", + "description": "持续追踪 {{appName}} 的新功能和改进", + "readDetails": "阅读详情", + "title": "更新日志", + "versionDetails": "版本详情", + "welcomeBack": "欢迎回来!" +} diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json index 90509fe846804..67ef8e6691474 100644 --- a/locales/zh-CN/common.json +++ b/locales/zh-CN/common.json @@ -154,6 +154,7 @@ "pinOff": "取消置顶", "privacy": "隐私政策", "regenerate": "重新生成", + "releaseNotes": "版本详情", "rename": "重命名", "reset": "重置", "retry": "重试", diff --git a/locales/zh-CN/metadata.json b/locales/zh-CN/metadata.json index a6fa05bd8a924..c47cf8685fd5a 100644 --- a/locales/zh-CN/metadata.json +++ b/locales/zh-CN/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "持续追踪 {{appName}} 的新功能和改进", + "title": "更新日志" + }, "chat": { "description": "{{appName}} 带给你最好的 ChatGPT, Claude , Gemini, OLLaMA WebUI 使用体验", "title": "{{appName}}:个人 AI 效能工具,给自己一个更聪明的大脑" diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index ae220c63fb036..a3ddef5d82360 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math 专注于数学领域的问题求解,为高难度题提供专业解答。" }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,对比当前最优的开源模型,Qwen2-72B 在自然语言理解、知识、代码、数学及多语言等多项能力上均显著超越当前领先的模型。" + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,能够超越同等规模的最优开源模型甚至更大规模的模型,Qwen2 7B 在多个评测上取得显著的优势,尤其是代码及中文理解上。" + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct 支持 16k 上下文, 生成长文本超过 8K 。支持 function call 与外部系统无缝交互,极大提升了灵活性和扩展性。模型知识明显增加,并且大大提高了编码和数学能力, 多语言支持超过 29 种" + }, "SenseChat": { "description": "基础版本模型 (V4),4K上下文长度,通用能力强大" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large 是业界最大的开源 Transformer 架构 MoE 模型,拥有 3890 亿总参数量和 520 亿激活参数量。" }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B 在保持原系列模型优秀的通用语言能力的前提下,通过增量训练 5 千亿高质量 token,大幅提高了数学逻辑、代码能力。" + }, "abab5.5-chat": { "description": "面向生产力场景,支持复杂任务处理和高效文本生成,适用于专业领域应用。" }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4 是强大的AI编程助手,支持多种编程语言的智能问答与代码补全,提升开发效率。" }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B 是一个多语言代码生成模型,支持包括代码补全和生成、代码解释器、网络搜索、函数调用、仓库级代码问答在内的全面功能,覆盖软件开发的各种场景。是参数少于 10B 的顶尖代码生成模型。" + }, "codegemma": { "description": "CodeGemma 专用于不同编程任务的轻量级语言模型,支持快速迭代和集成。" }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "融合通用与代码能力的全新开源模型, 不仅保留了原有 Chat 模型的通用对话能力和 Coder 模型的强大代码处理能力,还更好地对齐了人类偏好。此外,DeepSeek-V2.5 在写作任务、指令跟随等多个方面也实现了大幅提升。" }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B 是一个代码语言模型, 基于 2 万亿数据训练而成,其中 87% 为代码, 13% 为中英文语言。模型引入 16K 窗口大小和填空任务,提供项目级别的代码补全和片段填充功能。" + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 是开源的混合专家代码模型,在代码任务方面表现优异,与 GPT4-Turbo 相媲美。" }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 是Google最新的实验性多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。" }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 是Google最新的实验性多模态AI模型,具备快速处理能力,支持文本、图像和视频输入,适用于多种任务的高效扩展。" + }, "gemma-7b-it": { "description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。" }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520 是最新模型版本,专为高度复杂和多样化任务设计,表现卓越。" }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat 在语义、数学、推理、代码和知识等多方面均表现出较高性能。还具备网页浏览、代码执行、自定义工具调用和长文本推理。 支持包括日语,韩语,德语在内的 26 种语言。" + }, "glm-4-air": { "description": "GLM-4-Air 是性价比高的版本,性能接近GLM-4,提供快速度和实惠的价格。" }, diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index cb41fbb3f2006..5fb2c98fbe2f6 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI 是一家领先的高级语言模型服务商,专注于功能调用和多模态处理。其最新模型 Firefunction V2 基于 Llama-3,优化用于函数调用、对话及指令跟随。视觉语言模型 FireLLaVA-13B 支持图像和文本混合输入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多语言指令跟随与生成支持。" }, + "giteeai": { + "description": "Gitee AI 的 Serverless API 为 AI 开发者提供开箱即用的大模型推理 API 服务。" + }, "github": { "description": "通过GitHub模型,开发人员可以成为AI工程师,并使用行业领先的AI模型进行构建。" }, diff --git a/locales/zh-TW/changelog.json b/locales/zh-TW/changelog.json new file mode 100644 index 0000000000000..2cde0ee7b45e9 --- /dev/null +++ b/locales/zh-TW/changelog.json @@ -0,0 +1,14 @@ +{ + "actions": { + "followOnX": "在 X 上關注我們", + "subscribeToUpdates": "訂閱更新", + "versions": "版本詳情" + }, + "addedWhileAway": "在您離開期間,我們帶來了新的特性。", + "allChangelog": "查看所有更新日誌", + "description": "持續追蹤 {{appName}} 的新功能和改進", + "readDetails": "閱讀詳情", + "title": "更新日誌", + "versionDetails": "版本詳情", + "welcomeBack": "歡迎回來!" +} diff --git a/locales/zh-TW/common.json b/locales/zh-TW/common.json index e771e66ea84d7..90d85de21b094 100644 --- a/locales/zh-TW/common.json +++ b/locales/zh-TW/common.json @@ -154,6 +154,7 @@ "pinOff": "取消置頂", "privacy": "隱私政策", "regenerate": "重新生成", + "releaseNotes": "版本詳細", "rename": "重新命名", "reset": "重置", "retry": "重試", diff --git a/locales/zh-TW/metadata.json b/locales/zh-TW/metadata.json index c59b51e853c6f..d856fbc52c18a 100644 --- a/locales/zh-TW/metadata.json +++ b/locales/zh-TW/metadata.json @@ -1,4 +1,8 @@ { + "changelog": { + "description": "持續追蹤 {{appName}} 的新功能和改進", + "title": "更新日誌" + }, "chat": { "description": "{{appName}} 帶給你最好的 ChatGPT, Claude, Gemini, OLLaMA WebUI 使用體驗", "title": "{{appName}}:個人 AI 效能工具,給自己一個更聰明的大腦" diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index 93fbcfa318cf3..57c129f5d0401 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -176,6 +176,15 @@ "Qwen/Qwen2.5-Math-72B-Instruct": { "description": "Qwen2.5-Math專注於數學領域的問題求解,為高難度題提供專業解答。" }, + "Qwen2-72B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,支持 128k 上下文,對比當前最優的開源模型,Qwen2-72B 在自然語言理解、知識、代碼、數學及多語言等多項能力上均顯著超越當前領先的模型。" + }, + "Qwen2-7B-Instruct": { + "description": "Qwen2 是 Qwen 模型的最新系列,能夠超越同等規模的最優開源模型甚至更大規模的模型,Qwen2 7B 在多個評測上取得顯著的優勢,尤其是在代碼及中文理解上。" + }, + "Qwen2.5-72B-Instruct": { + "description": "Qwen2.5-72B-Instruct 支持 16k 上下文,生成長文本超過 8K。支持函數調用與外部系統無縫互動,極大提升了靈活性和擴展性。模型知識明顯增加,並且大幅提高了編碼和數學能力,多語言支持超過 29 種。" + }, "SenseChat": { "description": "基礎版本模型 (V4),4K上下文長度,通用能力強大" }, @@ -206,6 +215,9 @@ "Tencent/Hunyuan-A52B-Instruct": { "description": "Hunyuan-Large 是業界最大的開源 Transformer 架構 MoE 模型,擁有 3890 億總參數量和 520 億激活參數量。" }, + "Yi-34B-Chat": { + "description": "Yi-1.5-34B 在保持原系列模型優秀的通用語言能力的前提下,通過增量訓練 5 千億高質量 token,大幅提高了數學邏輯和代碼能力。" + }, "abab5.5-chat": { "description": "面向生產力場景,支持複雜任務處理和高效文本生成,適用於專業領域應用。" }, @@ -368,6 +380,9 @@ "codegeex-4": { "description": "CodeGeeX-4是一個強大的AI編程助手,支持多種編程語言的智能問答與代碼補全,提升開發效率。" }, + "codegeex4-all-9b": { + "description": "CodeGeeX4-ALL-9B 是一個多語言代碼生成模型,支持包括代碼補全和生成、代碼解釋器、網絡搜索、函數調用、倉庫級代碼問答在內的全面功能,覆蓋軟件開發的各種場景。是參數少於 10B 的頂尖代碼生成模型。" + }, "codegemma": { "description": "CodeGemma 專用于不同編程任務的輕量級語言模型,支持快速迭代和集成。" }, @@ -422,6 +437,9 @@ "deepseek-chat": { "description": "融合通用與代碼能力的全新開源模型,不僅保留了原有 Chat 模型的通用對話能力和 Coder 模型的強大代碼處理能力,還更好地對齊了人類偏好。此外,DeepSeek-V2.5 在寫作任務、指令跟隨等多個方面也實現了大幅提升。" }, + "deepseek-coder-33B-instruct": { + "description": "DeepSeek Coder 33B 是一個代碼語言模型,基於 2 萬億數據訓練而成,其中 87% 為代碼,13% 為中英文語言。模型引入 16K 窗口大小和填空任務,提供項目級別的代碼補全和片段填充功能。" + }, "deepseek-coder-v2": { "description": "DeepSeek Coder V2 是開源的混合專家代碼模型,在代碼任務方面表現優異,與 GPT4-Turbo 相媲美。" }, @@ -476,6 +494,9 @@ "gemini-exp-1114": { "description": "Gemini Exp 1114 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、影像和影片輸入,適用於多種任務的高效擴展。" }, + "gemini-exp-1121": { + "description": "Gemini Exp 1121 是 Google 最新的實驗性多模態 AI 模型,具備快速處理能力,支持文本、圖像和視頻輸入,適用於多種任務的高效擴展。" + }, "gemma-7b-it": { "description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。" }, @@ -503,6 +524,9 @@ "glm-4-0520": { "description": "GLM-4-0520是最新模型版本,專為高度複雜和多樣化任務設計,表現卓越。" }, + "glm-4-9b-chat": { + "description": "GLM-4-9B-Chat 在語義、數學、推理、代碼和知識等多方面均表現出較高性能。還具備網頁瀏覽、代碼執行、自定義工具調用和長文本推理。支持包括日語、韓語、德語在內的 26 種語言。" + }, "glm-4-air": { "description": "GLM-4-Air是性價比高的版本,性能接近GLM-4,提供快速度和實惠的價格。" }, diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index 7f26928b57a4d..4d2cfdf6a66cc 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -22,6 +22,9 @@ "fireworksai": { "description": "Fireworks AI 是一家領先的高級語言模型服務商,專注於功能調用和多模態處理。其最新模型 Firefunction V2 基於 Llama-3,優化用於函數調用、對話及指令跟隨。視覺語言模型 FireLLaVA-13B 支持圖像和文本混合輸入。其他 notable 模型包括 Llama 系列和 Mixtral 系列,提供高效的多語言指令跟隨與生成支持。" }, + "giteeai": { + "description": "Gitee AI 的 Serverless API 為 AI 開發者提供即開即用的大模型推理 API 服務。" + }, "github": { "description": "透過 GitHub 模型,開發者可以成為 AI 工程師,並使用業界領先的 AI 模型進行建設。" }, diff --git a/next.config.mjs b/next.config.mjs index 5ccf88163ec9e..2dc8f1c7f61b6 100644 --- a/next.config.mjs +++ b/next.config.mjs @@ -104,6 +104,23 @@ const nextConfig = { ]; }, + images: { + remotePatterns: [ + { + hostname: 'localhost', + protocol: 'http', + }, + { + hostname: '127.0.0.1', + protocol: 'http', + }, + { + hostname: '**', + protocol: 'https', + }, + ], + // unoptimized: true, + }, output: buildWithDocker ? 'standalone' : undefined, reactStrictMode: true, redirects: async () => [ diff --git a/package.json b/package.json index 1ba80a6ff8f6a..62ef583f77d38 100644 --- a/package.json +++ b/package.json @@ -126,7 +126,7 @@ "@lobehub/chat-plugins-gateway": "^1.9.0", "@lobehub/icons": "^1.38.1", "@lobehub/tts": "^1.25.1", - "@lobehub/ui": "^1.152.0", + "@lobehub/ui": "^1.153.8", "@neondatabase/serverless": "^0.10.1", "@next/third-parties": "^14.2.15", "@react-spring/web": "^9.7.5", diff --git a/src/app/(main)/(mobile)/me/(home)/features/useCategory.tsx b/src/app/(main)/(mobile)/me/(home)/features/useCategory.tsx index b83b549097b5a..70241b08f9659 100644 --- a/src/app/(main)/(mobile)/me/(home)/features/useCategory.tsx +++ b/src/app/(main)/(mobile)/me/(home)/features/useCategory.tsx @@ -5,6 +5,8 @@ import { Database, Download, Feather, + FileClockIcon, + FileTextIcon, LogOut, Settings2, } from 'lucide-react'; @@ -12,7 +14,7 @@ import { useRouter } from 'next/navigation'; import { useTranslation } from 'react-i18next'; import { CellProps } from '@/components/Cell'; -import { DISCORD, DOCUMENTS, FEEDBACK } from '@/const/url'; +import { CHANGELOG_URL, DISCORD, DOCUMENTS, FEEDBACK } from '@/const/url'; import { isServerMode } from '@/const/version'; import { usePWAInstall } from '@/hooks/usePWAInstall'; import { useUserStore } from '@/store/user'; @@ -109,6 +111,18 @@ export const useCategory = () => { label: 'Discord', onClick: () => window.open(DISCORD, '__blank'), }, + { + icon: FileTextIcon, + key: 'changelog', + label: t('changelog'), + onClick: () => router.push('/changelog'), + }, + { + icon: FileClockIcon, + key: 'releaseNotes', + label: t('releaseNotes'), + onClick: () => window.open(CHANGELOG_URL, '__blank'), + }, ]; const nextAuthSignOut: CellProps[] = [ diff --git a/src/app/(main)/_layout/Desktop.tsx b/src/app/(main)/_layout/Desktop.tsx index b6927fdc4bc0a..43ee6bd913afd 100644 --- a/src/app/(main)/_layout/Desktop.tsx +++ b/src/app/(main)/_layout/Desktop.tsx @@ -1,15 +1,19 @@ 'use client'; import { useTheme } from 'antd-style'; +import dynamic from 'next/dynamic'; import { memo } from 'react'; import { Flexbox } from 'react-layout-kit'; -import CloudBanner, { BANNER_HEIGHT } from '@/features/AlertBanner/CloudBanner'; +import { BANNER_HEIGHT } from '@/features/AlertBanner/CloudBanner'; import { usePlatform } from '@/hooks/usePlatform'; import { featureFlagsSelectors, useServerConfigStore } from '@/store/serverConfig'; import { LayoutProps } from './type'; +const CloudBanner = dynamic(() => import('@/features/AlertBanner/CloudBanner'), { ssr: false }); +const ChangelogModal = dynamic(() => import('@/features/ChangelogModal'), { ssr: false }); + const Layout = memo(({ children, nav }) => { const { isPWA } = usePlatform(); const theme = useTheme(); @@ -19,6 +23,7 @@ const Layout = memo(({ children, nav }) => { return ( <> {showCloudPromotion && } + import('@/features/AlertBanner/CloudBanner'), { ssr: false }); +const ChangelogModal = dynamic(() => import('@/features/ChangelogModal'), { ssr: false }); + const MOBILE_NAV_ROUTES = new Set([ '/chat', '/discover', @@ -31,6 +34,7 @@ const Layout = memo(({ children, nav }: LayoutProps) => { return ( <> {showCloudPromotion && } + {children} {showNav && nav} diff --git a/src/app/(main)/changelog/_layout/Desktop.tsx b/src/app/(main)/changelog/_layout/Desktop.tsx new file mode 100644 index 0000000000000..47a37fb980f5b --- /dev/null +++ b/src/app/(main)/changelog/_layout/Desktop.tsx @@ -0,0 +1,21 @@ +import { ReactNode } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +import Hero from '../features/Hero'; + +type Props = { children: ReactNode }; + +const Layout = ({ children }: Props) => { + return ( + + + + {children} + + + ); +}; + +Layout.displayName = 'DesktopChangelogLayout'; + +export default Layout; diff --git a/src/app/(main)/changelog/_layout/Mobile/Header.tsx b/src/app/(main)/changelog/_layout/Mobile/Header.tsx new file mode 100644 index 0000000000000..4a4b0fb39a995 --- /dev/null +++ b/src/app/(main)/changelog/_layout/Mobile/Header.tsx @@ -0,0 +1,33 @@ +'use client'; + +import { MobileNavBar, MobileNavBarTitle } from '@lobehub/ui'; +import { useRouter } from 'next/navigation'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox } from 'react-layout-kit'; + +import { mobileHeaderSticky } from '@/styles/mobileHeader'; + +const Header = memo(() => { + const { t } = useTranslation('changelog'); + + const router = useRouter(); + return ( + + {t('title')} + + } + /> + } + onBackClick={() => router.back()} + showBackButton + style={mobileHeaderSticky} + /> + ); +}); + +export default Header; diff --git a/src/app/(main)/changelog/_layout/Mobile/index.tsx b/src/app/(main)/changelog/_layout/Mobile/index.tsx new file mode 100644 index 0000000000000..6ac127afadd9a --- /dev/null +++ b/src/app/(main)/changelog/_layout/Mobile/index.tsx @@ -0,0 +1,19 @@ +import { ReactNode } from 'react'; + +import MobileContentLayout from '@/components/server/MobileNavLayout'; + +import Header from './Header'; + +type Props = { children: ReactNode }; + +const Layout = ({ children }: Props) => { + return ( + } padding={16}> + {children} + + ); +}; + +Layout.displayName = 'MobileChangelogLayout'; + +export default Layout; diff --git a/src/app/(main)/changelog/error.tsx b/src/app/(main)/changelog/error.tsx new file mode 100644 index 0000000000000..071491038c704 --- /dev/null +++ b/src/app/(main)/changelog/error.tsx @@ -0,0 +1,5 @@ +'use client'; + +import dynamic from 'next/dynamic'; + +export default dynamic(() => import('@/components/Error')); diff --git a/src/app/(main)/changelog/features/GridLayout.tsx b/src/app/(main)/changelog/features/GridLayout.tsx new file mode 100644 index 0000000000000..c8b3219557058 --- /dev/null +++ b/src/app/(main)/changelog/features/GridLayout.tsx @@ -0,0 +1,27 @@ +'use client'; + +import { useResponsive } from 'antd-style'; +import { PropsWithChildren, ReactNode, memo } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +const GridLayout = memo>( + ({ mobile, children, date }) => { + const { md } = useResponsive(); + + const isMobile = mobile || !md; + + return ( + + + {date} + + + {children} + + {!isMobile && } + + ); + }, +); + +export default GridLayout; diff --git a/src/app/(main)/changelog/features/Hero.tsx b/src/app/(main)/changelog/features/Hero.tsx new file mode 100644 index 0000000000000..708ccdbcbd3cd --- /dev/null +++ b/src/app/(main)/changelog/features/Hero.tsx @@ -0,0 +1,39 @@ +'use client'; + +import { useTheme } from 'antd-style'; +import Link from 'next/link'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox } from 'react-layout-kit'; +import urlJoin from 'url-join'; + +import { BRANDING_NAME } from '@/const/branding'; +import { OFFICIAL_SITE, X } from '@/const/url'; + +import GridLayout from './GridLayout'; + +const Hero = memo(() => { + const { t } = useTranslation('changelog'); + const theme = useTheme(); + return ( + + +

{t('title')}

+
+ {t('description', { appName: BRANDING_NAME })} +
+ + + {t('actions.versions')} + +
·
+ + {t('actions.followOnX')} + +
+
+
+ ); +}); + +export default Hero; diff --git a/src/app/(main)/changelog/features/Post.tsx b/src/app/(main)/changelog/features/Post.tsx new file mode 100644 index 0000000000000..bbc8eaa0b6aad --- /dev/null +++ b/src/app/(main)/changelog/features/Post.tsx @@ -0,0 +1,52 @@ +import { Image, Typography } from '@lobehub/ui'; +import Link from 'next/link'; +import urlJoin from 'url-join'; + +import { CustomMDX } from '@/components/mdx'; +import { OFFICIAL_SITE } from '@/const/url'; +import { Locales } from '@/locales/resources'; +import { ChangelogIndexItem, changelogService } from '@/services/changelog'; + +import GridLayout from './GridLayout'; +import PublishedTime from './PublishedTime'; +import VersionTag from './VersionTag'; + +const Post = async ({ + id, + mobile, + versionRange, + locale, +}: ChangelogIndexItem & { branch?: string; locale: Locales; mobile?: boolean }) => { + const data = await changelogService.getPostById(id, { locale }); + + return ( + + } + mobile={mobile} + > + + +

{data.rawTitle || data.title}

+ + {data.title} + + + + +
+
+ ); +}; + +export default Post; diff --git a/src/app/(main)/changelog/features/PublishedTime.tsx b/src/app/(main)/changelog/features/PublishedTime.tsx new file mode 100644 index 0000000000000..76a33664ecc59 --- /dev/null +++ b/src/app/(main)/changelog/features/PublishedTime.tsx @@ -0,0 +1,50 @@ +'use client'; + +import { createStyles } from 'antd-style'; +import dayjs from 'dayjs'; +import 'dayjs/locale/zh.js'; +import { CSSProperties, FC } from 'react'; +import { useTranslation } from 'react-i18next'; + +const useStyles = createStyles(({ css, token }) => { + return { + time: css` + margin-block: calc(var(--lobe-markdown-margin-multiple) * 1em); + + font-size: 14px; + line-height: var(--lobe-markdown-line-height); + color: ${token.colorTextSecondary}; + letter-spacing: 0.02em; + `, + }; +}); + +interface PrivacyUpdatedProps { + className?: string; + date: string; + style?: CSSProperties; + template?: string; +} +const PublishedTime: FC = ({ + date = new Date().toISOString(), + style, + className, + template = 'dddd, MMMM D YYYY', +}) => { + const { i18n } = useTranslation(); + const { styles, cx } = useStyles(); + const time = dayjs(date).locale(i18n.language).format(template); + + return ( + + ); +}; + +export default PublishedTime; diff --git a/src/app/(main)/changelog/features/VersionTag.tsx b/src/app/(main)/changelog/features/VersionTag.tsx new file mode 100644 index 0000000000000..1327e3620e60e --- /dev/null +++ b/src/app/(main)/changelog/features/VersionTag.tsx @@ -0,0 +1,27 @@ +'use client'; + +import { Tag } from '@lobehub/ui'; +import { createStyles } from 'antd-style'; +import { memo } from 'react'; + +const useStyles = createStyles(({ token, css }) => { + return { + tag: css` + margin: 0; + padding-block: 4px; + padding-inline: 12px; + + color: ${token.colorTextSecondary}; + + border-radius: 16px; + `, + }; +}); + +const VersionTag = memo<{ range: string[] }>(({ range }) => { + const { styles } = useStyles(); + + return {range.map((v) => 'v' + v).join(' ~ ')}; +}); + +export default VersionTag; diff --git a/src/app/(main)/changelog/layout.tsx b/src/app/(main)/changelog/layout.tsx new file mode 100644 index 0000000000000..2de9fd0ecb3c9 --- /dev/null +++ b/src/app/(main)/changelog/layout.tsx @@ -0,0 +1,10 @@ +import ServerLayout from '@/components/server/ServerLayout'; + +import Desktop from './_layout/Desktop'; +import Mobile from './_layout/Mobile'; + +const MainLayout = ServerLayout({ Desktop, Mobile }); + +MainLayout.displayName = 'ChangelogLayout'; + +export default MainLayout; diff --git a/src/app/(main)/changelog/loading.tsx b/src/app/(main)/changelog/loading.tsx new file mode 100644 index 0000000000000..14b2f7b8c18ef --- /dev/null +++ b/src/app/(main)/changelog/loading.tsx @@ -0,0 +1,3 @@ +import { Skeleton } from 'antd'; + +export default () => ; diff --git a/src/app/(main)/changelog/not-found.tsx b/src/app/(main)/changelog/not-found.tsx new file mode 100644 index 0000000000000..02503bc7fa461 --- /dev/null +++ b/src/app/(main)/changelog/not-found.tsx @@ -0,0 +1,3 @@ +import dynamic from 'next/dynamic'; + +export default dynamic(() => import('@/components/404')); diff --git a/src/app/(main)/changelog/page.tsx b/src/app/(main)/changelog/page.tsx new file mode 100644 index 0000000000000..341b1a62188cf --- /dev/null +++ b/src/app/(main)/changelog/page.tsx @@ -0,0 +1,53 @@ +import { Divider, Skeleton } from 'antd'; +import { Fragment, Suspense } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +import StructuredData from '@/components/StructuredData'; +import { BRANDING_NAME } from '@/const/branding'; +import { ldModule } from '@/server/ld'; +import { metadataModule } from '@/server/metadata'; +import { translation } from '@/server/translation'; +import { changelogService } from '@/services/changelog'; +import { isMobileDevice } from '@/utils/server/responsive'; + +import Post from './features/Post'; + +export const generateMetadata = async () => { + const { t } = await translation('metadata'); + return metadataModule.generate({ + description: t('changelog.description', { appName: BRANDING_NAME }), + title: t('changelog.title'), + url: '/changelog', + }); +}; + +const Page = async () => { + const mobile = isMobileDevice(); + const { t, locale } = await translation('metadata'); + const data = await changelogService.getChangelogIndex(); + + const ld = ldModule.generate({ + description: t('changelog.description', { appName: BRANDING_NAME }), + title: t('changelog.title', { appName: BRANDING_NAME }), + url: '/changelog', + }); + + return ( + <> + + + {data.map((item, index) => ( + + {!mobile && } + {mobile && index > 0 && } + }> + + + + ))} + + + ); +}; + +export default Page; diff --git a/src/app/(main)/chat/(workspace)/page.tsx b/src/app/(main)/chat/(workspace)/page.tsx index 407e9de95a04d..6b49bbbd52b9b 100644 --- a/src/app/(main)/chat/(workspace)/page.tsx +++ b/src/app/(main)/chat/(workspace)/page.tsx @@ -11,7 +11,7 @@ import TelemetryNotification from './features/TelemetryNotification'; export const generateMetadata = async () => { const { t } = await translation('metadata'); return metadataModule.generate({ - description: t('chat.title', { appName: BRANDING_NAME }), + description: t('chat.description', { appName: BRANDING_NAME }), title: t('chat.title', { appName: BRANDING_NAME }), url: '/chat', }); @@ -21,7 +21,7 @@ const Page = async () => { const mobile = isMobileDevice(); const { t } = await translation('metadata'); const ld = ldModule.generate({ - description: t('chat.title', { appName: BRANDING_NAME }), + description: t('chat.description', { appName: BRANDING_NAME }), title: t('chat.title', { appName: BRANDING_NAME }), url: '/chat', }); diff --git a/src/app/(main)/settings/about/features/Version.tsx b/src/app/(main)/settings/about/features/Version.tsx index 9a85899676625..ffe220fa5de2b 100644 --- a/src/app/(main)/settings/about/features/Version.tsx +++ b/src/app/(main)/settings/about/features/Version.tsx @@ -7,7 +7,7 @@ import { Center, Flexbox } from 'react-layout-kit'; import { ProductLogo } from '@/components/Branding'; import { BRANDING_NAME } from '@/const/branding'; -import { MANUAL_UPGRADE_URL, OFFICIAL_SITE, RELEASES_URL } from '@/const/url'; +import { CHANGELOG_URL, MANUAL_UPGRADE_URL, OFFICIAL_SITE } from '@/const/url'; import { CURRENT_VERSION } from '@/const/version'; import { useNewVersion } from '@/features/User/UserPanel/useNewVersion'; import { useGlobalStore } from '@/store/global'; @@ -62,7 +62,7 @@ const Version = memo<{ mobile?: boolean }>(({ mobile }) => {
- + {hasNewVersion && ( diff --git a/src/app/@modal/(.)changelog/features/Cover.tsx b/src/app/@modal/(.)changelog/features/Cover.tsx new file mode 100644 index 0000000000000..ade8214e51a4c --- /dev/null +++ b/src/app/@modal/(.)changelog/features/Cover.tsx @@ -0,0 +1,62 @@ +'use client'; + +import { createStyles } from 'antd-style'; +import Image from 'next/image'; +import { memo } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +const useStyles = createStyles( + ({ css, token }) => css` + position: relative; + overflow: hidden; + background: ${token.colorFillSecondary}; + + &::before { + content: ''; + + position: absolute; + z-index: 1; + inset-block-start: 0; + inset-inline-start: 0; + + width: 100%; + height: 1px; + + background: ${token.colorFillTertiary}; + } + + &::after { + content: ''; + + position: absolute; + z-index: 1; + inset-block-end: 0; + inset-inline-start: 0; + + width: 100%; + height: 1px; + + background: ${token.colorFillTertiary}; + } + `, +); + +const Cover = memo<{ alt: string; mobile?: boolean; src: string }>(({ alt, mobile, src }) => { + const { styles } = useStyles(); + return ( + + {alt} + + ); +}); + +export default Cover; diff --git a/src/app/@modal/(.)changelog/features/Hero.tsx b/src/app/@modal/(.)changelog/features/Hero.tsx new file mode 100644 index 0000000000000..cc4a236fa09e7 --- /dev/null +++ b/src/app/@modal/(.)changelog/features/Hero.tsx @@ -0,0 +1,23 @@ +'use client'; + +import { FluentEmoji } from '@lobehub/ui'; +import { useTheme } from 'antd-style'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox } from 'react-layout-kit'; + +const Hero = memo(() => { + const theme = useTheme(); + const { t } = useTranslation('changelog'); + return ( + + +

{t('welcomeBack')}

+ +
+
{t('addedWhileAway')}
+
+ ); +}); + +export default Hero; diff --git a/src/app/@modal/(.)changelog/features/Post.tsx b/src/app/@modal/(.)changelog/features/Post.tsx new file mode 100644 index 0000000000000..b46d7fbfc815c --- /dev/null +++ b/src/app/@modal/(.)changelog/features/Post.tsx @@ -0,0 +1,42 @@ +import { Typography } from '@lobehub/ui'; +import { Flexbox } from 'react-layout-kit'; + +import { CustomMDX } from '@/components/mdx'; +import { Locales } from '@/locales/resources'; +import { ChangelogIndexItem, changelogService } from '@/services/changelog'; + +import Cover from './Cover'; +import PublishedTime from './PublishedTime'; +import ReadDetail from './ReadDetail'; +import VersionTag from './VersionTag'; + +const Post = async ({ + id, + versionRange, + locale, +}: ChangelogIndexItem & { branch?: string; locale: Locales; mobile?: boolean }) => { + const data = await changelogService.getPostById(id, { locale }); + + return ( + + + + +

{data.rawTitle || data.title}

+ +
+ + + + + +
+
+ ); +}; + +export default Post; diff --git a/src/app/@modal/(.)changelog/features/PublishedTime.tsx b/src/app/@modal/(.)changelog/features/PublishedTime.tsx new file mode 100644 index 0000000000000..76a33664ecc59 --- /dev/null +++ b/src/app/@modal/(.)changelog/features/PublishedTime.tsx @@ -0,0 +1,50 @@ +'use client'; + +import { createStyles } from 'antd-style'; +import dayjs from 'dayjs'; +import 'dayjs/locale/zh.js'; +import { CSSProperties, FC } from 'react'; +import { useTranslation } from 'react-i18next'; + +const useStyles = createStyles(({ css, token }) => { + return { + time: css` + margin-block: calc(var(--lobe-markdown-margin-multiple) * 1em); + + font-size: 14px; + line-height: var(--lobe-markdown-line-height); + color: ${token.colorTextSecondary}; + letter-spacing: 0.02em; + `, + }; +}); + +interface PrivacyUpdatedProps { + className?: string; + date: string; + style?: CSSProperties; + template?: string; +} +const PublishedTime: FC = ({ + date = new Date().toISOString(), + style, + className, + template = 'dddd, MMMM D YYYY', +}) => { + const { i18n } = useTranslation(); + const { styles, cx } = useStyles(); + const time = dayjs(date).locale(i18n.language).format(template); + + return ( + + ); +}; + +export default PublishedTime; diff --git a/src/app/@modal/(.)changelog/features/ReadDetail.tsx b/src/app/@modal/(.)changelog/features/ReadDetail.tsx new file mode 100644 index 0000000000000..f8c00b89ecc6d --- /dev/null +++ b/src/app/@modal/(.)changelog/features/ReadDetail.tsx @@ -0,0 +1,94 @@ +'use client'; + +import { ActionIcon, Icon } from '@lobehub/ui'; +import { Divider } from 'antd'; +import { createStyles } from 'antd-style'; +import { ChevronRightIcon } from 'lucide-react'; +import Link from 'next/link'; +import { memo } from 'react'; +import { useTranslation } from 'react-i18next'; +import { Flexbox } from 'react-layout-kit'; +import urlJoin from 'url-join'; + +import { OFFICIAL_SITE } from '@/const/url'; +import { useShare } from '@/hooks/useShare'; + +const useStyles = createStyles( + ({ css, token }) => css` + position: relative; + + margin-block: 16px 32px; + padding: 16px; + + background: ${token.colorFillTertiary}; + border-radius: ${token.borderRadiusLG}px; + `, +); + +const ReadDetail = memo<{ desc: string; postId: string; title: string }>( + ({ postId, title, desc }) => { + const { t } = useTranslation('changelog'); + const { styles, theme } = useStyles(); + const url = urlJoin(OFFICIAL_SITE, `/changelog/${postId}`); + const { x, telegram, reddit, mastodon, whatsapp } = useShare({ desc, title, url }); + + return ( + + + + + + + + + + + + + + + + + + + + {t('readDetails')} + + + + + ); + }, +); + +export default ReadDetail; diff --git a/src/app/@modal/(.)changelog/features/VersionTag.tsx b/src/app/@modal/(.)changelog/features/VersionTag.tsx new file mode 100644 index 0000000000000..1327e3620e60e --- /dev/null +++ b/src/app/@modal/(.)changelog/features/VersionTag.tsx @@ -0,0 +1,27 @@ +'use client'; + +import { Tag } from '@lobehub/ui'; +import { createStyles } from 'antd-style'; +import { memo } from 'react'; + +const useStyles = createStyles(({ token, css }) => { + return { + tag: css` + margin: 0; + padding-block: 4px; + padding-inline: 12px; + + color: ${token.colorTextSecondary}; + + border-radius: 16px; + `, + }; +}); + +const VersionTag = memo<{ range: string[] }>(({ range }) => { + const { styles } = useStyles(); + + return {range.map((v) => 'v' + v).join(' ~ ')}; +}); + +export default VersionTag; diff --git a/src/app/@modal/(.)changelog/layout.tsx b/src/app/@modal/(.)changelog/layout.tsx new file mode 100644 index 0000000000000..fbc3c8351465c --- /dev/null +++ b/src/app/@modal/(.)changelog/layout.tsx @@ -0,0 +1,44 @@ +'use client'; + +import { FC, PropsWithChildren } from 'react'; +import { Flexbox } from 'react-layout-kit'; + +import { useGlobalStore } from '@/store/global'; + +import ModalLayout from '../_layout/ModalLayout'; +import Hero from './features/Hero'; + +const Layout: FC = ({ children }) => { + const [useCheckLatestChangelogId, updateSystemStatus] = useGlobalStore((s) => [ + s.useCheckLatestChangelogId, + s.updateSystemStatus, + ]); + const { data } = useCheckLatestChangelogId(); + + return ( + { + if (!data) return; + console.log(data); + updateSystemStatus({ latestChangelogId: data }); + }} + width={'min(90vw, 580px)'} + > + + + {children} + + + ); +}; + +export default Layout; diff --git a/src/app/@modal/(.)changelog/loading.tsx b/src/app/@modal/(.)changelog/loading.tsx new file mode 100644 index 0000000000000..b04d59deffab1 --- /dev/null +++ b/src/app/@modal/(.)changelog/loading.tsx @@ -0,0 +1,10 @@ +import { Skeleton } from 'antd'; +import { Flexbox } from 'react-layout-kit'; + +export default () => { + return ( + + + + ); +}; diff --git a/src/app/@modal/(.)changelog/page.tsx b/src/app/@modal/(.)changelog/page.tsx new file mode 100644 index 0000000000000..3a217926b77de --- /dev/null +++ b/src/app/@modal/(.)changelog/page.tsx @@ -0,0 +1,24 @@ +import { Suspense } from 'react'; + +import { getLocale } from '@/server/translation'; +import { changelogService } from '@/services/changelog'; +import { isMobileDevice } from '@/utils/server/responsive'; + +import Post from './features/Post'; +import Loading from './loading'; + +const Page = async () => { + const locale = await getLocale(); + const mobile = isMobileDevice(); + const data = await changelogService.getChangelogIndex(); + + return data.map((item) => ( + } key={item.id}> + + + )); +}; + +Page.displayName = 'ChangelogModal'; + +export default Page; diff --git a/src/app/@modal/(.)settings/modal/layout.tsx b/src/app/@modal/(.)settings/modal/layout.tsx index 1a322595da1ef..e79ed5c985e13 100644 --- a/src/app/@modal/(.)settings/modal/layout.tsx +++ b/src/app/@modal/(.)settings/modal/layout.tsx @@ -8,6 +8,7 @@ import { useTranslation } from 'react-i18next'; import { useActiveSettingsKey } from '@/hooks/useActiveSettingsKey'; import { SettingsTabs } from '@/store/global/initialState'; +import ModalLayout from '../../_layout/ModalLayout'; import SettingModalLayout from '../../_layout/SettingModalLayout'; const CategoryContent = dynamic( @@ -22,22 +23,24 @@ const Layout = memo(({ children }) => { const { t } = useTranslation('setting'); const activeKey = useActiveSettingsKey(); return ( - - {t(`tab.${activeKey}`)} - {activeKey === SettingsTabs.Sync && {t('tab.experiment')}} - - } - category={ - <> - - - - } - > - {children} - + + + {t(`tab.${activeKey}`)} + {activeKey === SettingsTabs.Sync && {t('tab.experiment')}} + + } + category={ + <> + + + + } + > + {children} + + ); }); diff --git a/src/app/@modal/_layout/ModalLayout.tsx b/src/app/@modal/_layout/ModalLayout.tsx new file mode 100644 index 0000000000000..35dd6637fd2dc --- /dev/null +++ b/src/app/@modal/_layout/ModalLayout.tsx @@ -0,0 +1,63 @@ +'use client'; + +import { Modal, type ModalProps } from '@lobehub/ui'; +import { useTheme } from 'antd-style'; +import { useRouter } from 'next/navigation'; +import { PropsWithChildren, memo, useState } from 'react'; + +const ModalLayout = memo< + PropsWithChildren<{ + centered?: boolean; + closeIconProps?: ModalProps['closeIconProps']; + height?: number | string; + minHeight?: number | string; + onCancel?: ModalProps['onCancel']; + width?: number | string; + }> +>( + ({ + closeIconProps, + centered, + children, + height = 'min(80vh,750px)', + width = 'min(80vw, 1024px)', + onCancel, + }) => { + const [open, setOpen] = useState(true); + const router = useRouter(); + const theme = useTheme(); + + return ( + router.back()} + centered={centered} + closeIconProps={closeIconProps} + enableResponsive={false} + footer={null} + height={height} + onCancel={(e) => { + onCancel?.(e); + setOpen(false); + router.back(); + }} + open={open} + styles={{ + body: { + display: 'flex', + height: height, + overflow: 'hidden', + padding: 0, + position: 'relative', + }, + content: { border: 'none', boxShadow: `0 0 0 1px ${theme.colorBorderSecondary}` }, + }} + title={false} + width={width} + > + {children} + + ); + }, +); + +export default ModalLayout; diff --git a/src/app/@modal/chat/(.)settings/modal/layout.tsx b/src/app/@modal/chat/(.)settings/modal/layout.tsx index 9f21fa0169d2b..a6d577d343aaa 100644 --- a/src/app/@modal/chat/(.)settings/modal/layout.tsx +++ b/src/app/@modal/chat/(.)settings/modal/layout.tsx @@ -6,6 +6,7 @@ import dynamic from 'next/dynamic'; import { PropsWithChildren, memo } from 'react'; import { useTranslation } from 'react-i18next'; +import ModalLayout from '@/app/@modal/_layout/ModalLayout'; import StoreUpdater from '@/features/AgentSetting/StoreUpdater'; import { Provider, createStore } from '@/features/AgentSetting/store'; import { useQuery } from '@/hooks/useQuery'; @@ -35,23 +36,25 @@ const Layout = memo(({ children }) => { ]); return ( - } - desc={t('header.sessionDesc')} - title={t('header.session')} - > - - - {children} - - + + } + desc={t('header.sessionDesc')} + title={t('header.session')} + > + + + {children} + + + ); }); diff --git a/src/app/@modal/features/InterceptingContext.tsx b/src/app/@modal/features/InterceptingContext.tsx deleted file mode 100644 index f3abfb32b5eed..0000000000000 --- a/src/app/@modal/features/InterceptingContext.tsx +++ /dev/null @@ -1,9 +0,0 @@ -import { PropsWithChildren, createContext, memo } from 'react'; - -export const InterceptContext = createContext(false); - -const InterceptingLayout = memo(({ children }) => { - return {children}; -}); - -export default InterceptingLayout; diff --git a/src/app/@modal/layout.tsx b/src/app/@modal/layout.tsx index 9310f26bc09ed..a8df955abecc1 100644 --- a/src/app/@modal/layout.tsx +++ b/src/app/@modal/layout.tsx @@ -1,71 +1,7 @@ -'use client'; +import { FC, PropsWithChildren } from 'react'; -import { Modal } from '@lobehub/ui'; -import { useTheme } from 'antd-style'; -import { usePathname, useRouter } from 'next/navigation'; -import { PropsWithChildren, memo, useEffect, useState } from 'react'; +const Layout: FC = ({ children }) => { + return
{children}
; +}; -import InterceptingLayout from './features/InterceptingContext'; - -const InterceptingModal = memo(({ children }) => { - const [open, setOpen] = useState(true); - const router = useRouter(); - const pathname = usePathname(); - const isDiscover = pathname.startsWith('/discover'); - const theme = useTheme(); - - const inModal = - pathname.startsWith('/settings') || - pathname.startsWith('/chat/settings') || - pathname.startsWith('/discover/assistant/') || - pathname.startsWith('/discover/model/') || - pathname.startsWith('/discover/plugin/') || - pathname.startsWith('/discover/provider/'); - - useEffect(() => { - if (!inModal) { - setOpen(false); - } else { - setOpen(true); - } - }, [inModal, router]); - - if (!inModal) return null; - - return ( - - { - if (inModal) { - router.back(); - } else { - router.refresh(); - } - }} - enableResponsive={false} - footer={null} - onCancel={() => { - setOpen(false); - router.back(); - }} - open={open} - styles={{ - body: { - display: 'flex', - maxHeight: isDiscover ? '80vh' : undefined, - minHeight: 750, - overflow: 'hidden', - padding: 0, - }, - content: { border: 'none', boxShadow: `0 0 0 1px ${theme.colorBorderSecondary}` }, - }} - title={false} - width={isDiscover ? 'min(80vw, 1280px)' : 'min(80vw, 1024px)'} - > - {children} - - - ); -}); - -export default InterceptingModal; +export default Layout; diff --git a/src/const/url.ts b/src/const/url.ts index ef4f73f01cc2a..d508d05df2b12 100644 --- a/src/const/url.ts +++ b/src/const/url.ts @@ -73,3 +73,4 @@ export const mailTo = (email: string) => `mailto:${email}`; export const AES_GCM_URL = 'https://datatracker.ietf.org/doc/html/draft-ietf-avt-srtp-aes-gcm-01'; export const BASE_PROVIDER_DOC_URL = 'https://lobehub.com/docs/usage/providers'; export const SITEMAP_BASE_URL = isDev ? '/sitemap.xml/' : 'sitemap'; +export const CHANGELOG_URL = urlJoin(OFFICIAL_SITE, 'changelog/versions'); diff --git a/src/features/ChangelogModal/index.tsx b/src/features/ChangelogModal/index.tsx new file mode 100644 index 0000000000000..a48d6df702662 --- /dev/null +++ b/src/features/ChangelogModal/index.tsx @@ -0,0 +1,25 @@ +'use client'; + +import { useTimeout } from 'ahooks'; +import { useRouter } from 'next/navigation'; +import { memo } from 'react'; + +import { useGlobalStore } from '@/store/global'; + +const ChangelogModal = memo(() => { + const router = useRouter(); + const [useCheckLatestChangelogId, latestChangelogId] = useGlobalStore((s) => [ + s.useCheckLatestChangelogId, + s.status.latestChangelogId, + ]); + const { data } = useCheckLatestChangelogId(); + + useTimeout(() => { + if (!data) return; + if (latestChangelogId !== data) router.push('/changelog'); + }, 1000); + + return null; +}); + +export default ChangelogModal; diff --git a/src/features/User/UserPanel/useMenu.tsx b/src/features/User/UserPanel/useMenu.tsx index 154c8a0e8edbd..ce5146a20f498 100644 --- a/src/features/User/UserPanel/useMenu.tsx +++ b/src/features/User/UserPanel/useMenu.tsx @@ -7,6 +7,8 @@ import { Cloudy, Download, Feather, + FileClockIcon, + FileTextIcon, HardDriveDownload, HardDriveUpload, LifeBuoy, @@ -24,6 +26,7 @@ import urlJoin from 'url-join'; import type { MenuProps } from '@/components/Menu'; import { LOBE_CHAT_CLOUD } from '@/const/branding'; import { + CHANGELOG_URL, DISCORD, DOCUMENTS_REFER_URL, EMAIL_SUPPORT, @@ -224,6 +227,20 @@ export const useMenu = () => { ), }, + { + icon: , + key: 'changelog', + label: {t('changelog')}, + }, + { + icon: , + key: 'releaseNotes', + label: ( + + {t('releaseNotes')} + + ), + }, ], icon: , key: 'help', diff --git a/src/hooks/useInterceptingRoutes.ts b/src/hooks/useInterceptingRoutes.ts index 8baf426019b64..253519ac9ffb2 100644 --- a/src/hooks/useInterceptingRoutes.ts +++ b/src/hooks/useInterceptingRoutes.ts @@ -1,7 +1,6 @@ -import { useContext, useMemo } from 'react'; +import { useMemo } from 'react'; import urlJoin from 'url-join'; -import { InterceptContext } from '@/app/@modal/features/InterceptingContext'; import { INBOX_SESSION_ID } from '@/const/session'; import { useIsMobile } from '@/hooks/useIsMobile'; import { useQueryRoute } from '@/hooks/useQueryRoute'; @@ -45,7 +44,3 @@ export const useOpenChatSettings = (tab: ChatSettingsTabs = ChatSettingsTabs.Met } }, [openSettings, mobile, activeId, router, tab]); }; - -export const useInterceptingRoutes = () => { - return useContext(InterceptContext); -}; diff --git a/src/hooks/useShare.tsx b/src/hooks/useShare.tsx index d44f5a00a4104..d4f011175a02d 100644 --- a/src/hooks/useShare.tsx +++ b/src/hooks/useShare.tsx @@ -15,6 +15,7 @@ const stringifyHashtags = (hashtags: string[], joinfix: string = ',', prefix?: s if (prefix) hashtags = hashtags.map((tag) => prefix + camelCase(tag)); return hashtags.filter(Boolean).join(joinfix); }; + export const useShare = ({ url, title, diff --git a/src/locales/default/changelog.ts b/src/locales/default/changelog.ts new file mode 100644 index 0000000000000..05eaa44596a60 --- /dev/null +++ b/src/locales/default/changelog.ts @@ -0,0 +1,14 @@ +export default { + actions: { + followOnX: '在 X 上关注我们', + subscribeToUpdates: '订阅更新', + versions: '版本详情', + }, + addedWhileAway: '在您离开期间,我们带来了新的特性。', + allChangelog: '查看所有更新日志', + description: '持续追踪 {{appName}} 的新功能和改进', + readDetails: '阅读详情', + title: '更新日志', + versionDetails: '版本详情', + welcomeBack: '欢迎回来!', +}; diff --git a/src/locales/default/common.ts b/src/locales/default/common.ts index 116a3a01b7d13..56dbd95f4a892 100644 --- a/src/locales/default/common.ts +++ b/src/locales/default/common.ts @@ -155,6 +155,7 @@ export default { pinOff: '取消置顶', privacy: '隐私政策', regenerate: '重新生成', + releaseNotes: '版本详情', rename: '重命名', reset: '重置', retry: '重试', diff --git a/src/locales/default/index.ts b/src/locales/default/index.ts index 4d6495de707ea..be5574f945b97 100644 --- a/src/locales/default/index.ts +++ b/src/locales/default/index.ts @@ -1,4 +1,5 @@ import auth from './auth'; +import changelog from './changelog'; import chat from './chat'; import clerk from './clerk'; import common from './common'; @@ -22,6 +23,7 @@ import welcome from './welcome'; const resources = { auth, + changelog, chat, clerk, common, diff --git a/src/locales/default/metadata.ts b/src/locales/default/metadata.ts index bed8d3e6587ec..83fe02ed371bd 100644 --- a/src/locales/default/metadata.ts +++ b/src/locales/default/metadata.ts @@ -1,4 +1,8 @@ export default { + changelog: { + description: '持续追踪 {{appName}} 的新功能和改进', + title: '更新日志', + }, chat: { description: '{{appName}} 带给你最好的 ChatGPT, Claude , Gemini, OLLaMA WebUI 使用体验', title: '{{appName}}:个人 AI 效能工具,给自己一个更聪明的大脑', diff --git a/src/server/sitemap.ts b/src/server/sitemap.ts index e0aa38cdd9d1c..46c0fe5959059 100644 --- a/src/server/sitemap.ts +++ b/src/server/sitemap.ts @@ -202,6 +202,7 @@ export class Sitemap { ...this._genSitemap('/', { noLocales: true }), ...this._genSitemap('/chat', { noLocales: true }), ...this._genSitemap('/welcome', { noLocales: true }), + ...this._genSitemap('/changelog', { noLocales: true }), /* ↓ cloud slot ↓ */ /* ↑ cloud slot ↑ */ diff --git a/src/services/changelog.ts b/src/services/changelog.ts new file mode 100644 index 0000000000000..faa21b8e3eeac --- /dev/null +++ b/src/services/changelog.ts @@ -0,0 +1,184 @@ +import dayjs from 'dayjs'; +import matter from 'gray-matter'; +import { markdownToTxt } from 'markdown-to-txt'; +import semver from 'semver'; +import urlJoin from 'url-join'; + +import { Locales } from '@/locales/resources'; + +const BASE_URL = 'https://raw.githubusercontent.com'; +const LAST_MODIFIED = new Date().toISOString(); + +export interface ChangelogIndexItem { + date: string; + id: string; + image?: string; + versionRange: string[]; +} + +export interface ChangelogConfig { + branch: string; + changelogPath: string; + docsPath: string; + majorVersion: number; + repo: string; + type: 'cloud' | 'community'; + user: string; +} + +export interface StaticChangelogItem { + children: { + features?: string[]; + fixes?: string[]; + improvements?: string[]; + }; + date: string; + version: string; +} + +export interface ChangelogDetailsItem { + children: string[]; + version: string; +} + +export interface ChangelogDetails { + features: ChangelogDetailsItem[]; + fixes: ChangelogDetailsItem[]; + improvements: ChangelogDetailsItem[]; +} + +class ChangelogService { + config: ChangelogConfig = { + branch: process.env.DOCS_BRANCH || 'main', + changelogPath: 'changelog', + docsPath: 'docs/changelog', + majorVersion: 1, + repo: 'lobe-chat', + type: 'cloud', + user: 'lobehub', + }; + + revalidate: number = 12 * 3600; + + async getLatestChangelogId() { + const index = await this.getChangelogIndex(); + return index[0]?.id; + } + + async getChangelogIndex(): Promise { + try { + const url = this.genUrl(urlJoin(this.config.docsPath, 'index.json')); + + const res = await fetch(url, { + next: { revalidate: this.revalidate }, + }); + + const data = await res.json(); + + return this.mergeChangelogs(data.cloud, data.community); + } catch { + console.error('Error getting changlog index'); + return false as any; + } + } + + async getIndexItemById(id: string) { + const index = await this.getChangelogIndex(); + return index.find((item) => item.id === id); + } + + async getPostById(id: string, options?: { locale?: Locales }) { + try { + const post = await this.getIndexItemById(id); + + const filename = options?.locale === 'en-US' ? `${id}.mdx` : `${id}.zh-CN.mdx`; + const url = this.genUrl(urlJoin(this.config.docsPath, filename)); + + const response = await fetch(url, { + next: { revalidate: this.revalidate }, + }); + const text = await response.text(); + const { data, content } = matter(text); + + const regex = /^#\s(.+)/; + const match = regex.exec(content.trim()); + const matches = content.trim().split(regex); + + let description: string; + + if (matches[2]) { + description = matches[2] ? matches[2].trim() : ''; + } else { + description = matches[1] ? matches[1].trim() : ''; + } + + return { + date: post?.date + ? new Date(post.date) + : data?.date + ? new Date(data.date) + : new Date(LAST_MODIFIED), + description: markdownToTxt(description.replaceAll('\n', '').replaceAll(' ', ' ')).slice( + 0, + 160, + ), + image: post?.image, + tags: ['changelog'], + title: match ? match[1] : '', + ...data, + content: description, + rawTitle: match ? match[1] : '', + }; + } catch { + console.error('Error getting changlog post by id', id); + return false as any; + } + } + + private mergeChangelogs( + cloud: ChangelogIndexItem[], + community: ChangelogIndexItem[], + ): ChangelogIndexItem[] { + if (this.config.type === 'community') { + return community; + } + + const merged = [...community]; + + for (const cloudItem of cloud) { + const index = merged.findIndex((item) => item.id === cloudItem.id); + if (index !== -1) { + merged[index] = cloudItem; + } else { + merged.push(cloudItem); + } + } + + return merged + .map((item) => ({ + ...item, + date: dayjs(item.date).format('YYYY-MM-DD'), + versionRange: this.formatVersionRange(item.versionRange), + })) + .sort((a, b) => semver.rcompare(a.versionRange[0], b.versionRange[0])); + } + + private formatVersionRange(range: string[]): string[] { + if (range.length === 1) { + return range; + } + + const [v1, v2]: any = range.map((v) => semver.parse(v)?.toString()); + + const minVersion = semver.lt(v1, v2) ? v1 : v2; + const maxVersion = semver.gt(v1, v2) ? v1 : v2; + + return [maxVersion, minVersion]; + } + + private genUrl(path: string) { + return urlJoin(BASE_URL, this.config.user, this.config.repo, this.config.branch, path); + } +} + +export const changelogService = new ChangelogService(); diff --git a/src/store/global/action.ts b/src/store/global/action.ts index f538958333848..e5a1d75da729c 100644 --- a/src/store/global/action.ts +++ b/src/store/global/action.ts @@ -8,6 +8,7 @@ import { INBOX_SESSION_ID } from '@/const/session'; import { SESSION_CHAT_URL } from '@/const/url'; import { CURRENT_VERSION } from '@/const/version'; import { useOnlyFetchOnceSWR } from '@/libs/swr'; +import { changelogService } from '@/services/changelog'; import { globalService } from '@/services/global'; import type { GlobalStore } from '@/store/global/index'; import { merge } from '@/utils/merge'; @@ -29,6 +30,7 @@ export interface GlobalStoreAction { toggleSystemRole: (visible?: boolean) => void; toggleZenMode: () => void; updateSystemStatus: (status: Partial, action?: any) => void; + useCheckLatestChangelogId: () => SWRResponse; useCheckLatestVersion: (enabledCheck?: boolean) => SWRResponse; useInitSystemStatus: () => SWRResponse; } @@ -42,6 +44,7 @@ export const globalActionSlice: StateCreator< switchBackToChat: (sessionId) => { get().router?.push(SESSION_CHAT_URL(sessionId || INBOX_SESSION_ID, get().isMobile)); }, + toggleChatSideBar: (newValue) => { const showChatSideBar = typeof newValue === 'boolean' ? newValue : !get().status.showChatSideBar; @@ -95,6 +98,8 @@ export const globalActionSlice: StateCreator< get().statusStorage.saveToLocalStorage(nextStatus); }, + useCheckLatestChangelogId: () => + useSWR('changelog', async () => changelogService.getLatestChangelogId()), useCheckLatestVersion: (enabledCheck = true) => useSWR(enabledCheck ? 'checkLatestVersion' : null, globalService.getLatestVersion, { diff --git a/src/store/global/initialState.ts b/src/store/global/initialState.ts index 717d83196634d..fb48e828702de 100644 --- a/src/store/global/initialState.ts +++ b/src/store/global/initialState.ts @@ -36,6 +36,7 @@ export interface SystemStatus { filePanelWidth: number; hidePWAInstaller?: boolean; inputHeight: number; + latestChangelogId?: string; mobileShowPortal?: boolean; mobileShowTopic?: boolean; sessionsWidth: number;