diff --git a/translations/ar/README.md b/translations/ar/README.md index 5275efd9..c76f92e5 100644 --- a/translations/ar/README.md +++ b/translations/ar/README.md @@ -1,221 +1,239 @@ -# Phi Cookbook: أمثلة عملية باستخدام نماذج Phi من مايكروسوفت +# كتاب وصفات Phi: أمثلة تطبيقية مع نماذج Phi من مايكروسوفت -Phi هي سلسلة من نماذج الذكاء الاصطناعي مفتوحة المصدر التي طورتها مايكروسوفت. +[![افتح واستخدم العينات في GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![افتح في Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi هو حالياً النموذج اللغوي الصغير الأكثر قوة وفعالية من حيث التكلفة، حيث يقدم نتائج ممتازة في مجالات متعددة مثل اللغات، التفكير، إنشاء النصوص/المحادثات، البرمجة، الصور، الصوت، وغيرها من السيناريوهات. +[![مساهمو GitHub](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![مشاكل GitHub](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![طلبات السحب في GitHub](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![مرحبًا بطلبات السحب](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -يمكنك نشر Phi على السحابة أو الأجهزة الطرفية، كما يمكنك بسهولة بناء تطبيقات ذكاء اصطناعي توليدي باستخدام قوة حسابية محدودة. +[![المتابعون في GitHub](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![التفرعات في GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![النجوم في GitHub](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) + + +[![مجتمع Azure AI على ديسكورد](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi هو سلسلة من نماذج الذكاء الاصطناعي مفتوحة المصدر التي طورتها مايكروسوفت. + +يُعتبر Phi حاليًا أقوى وأكفأ نموذج لغة صغير (SLM) من حيث التكلفة، مع أداء ممتاز في عدة لغات، والتفكير، وتوليد النصوص/المحادثات، والبرمجة، والصور، والصوت، وسيناريوهات أخرى. + +يمكنك نشر Phi على السحابة أو على أجهزة الحافة، ويمكنك بسهولة بناء تطبيقات ذكاء اصطناعي توليدية بموارد حوسبة محدودة. اتبع هذه الخطوات للبدء باستخدام هذه الموارد: -1. **نسخ المستودع**: اضغط على [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **استنساخ المستودع**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**انضم إلى مجتمع مايكروسوفت للذكاء الاصطناعي على Discord وتواصل مع الخبراء والمطورين الآخرين**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +1. **افتح التفرع (Fork) للمستودع**: اضغط على [![التفرعات في GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **انسخ المستودع (Clone)**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**انضم إلى مجتمع Microsoft AI على ديسكورد وتواصل مع الخبراء والمطورين الآخرين**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.ar.png) ## 🌐 دعم متعدد اللغات -[فرنسي](../fr/README.md) | [إسباني](../es/README.md) | [ألماني](../de/README.md) | [روسي](../ru/README.md) | [عربي](./README.md) | [فارسي](../fa/README.md) | [أردو](../ur/README.md) | [صيني (مبسّط)](../zh/README.md) | [صيني (تقليدي، ماكاو)](../mo/README.md) | [صيني (تقليدي، هونغ كونغ)](../hk/README.md) | [صيني (تقليدي، تايوان)](../tw/README.md) | [ياباني](../ja/README.md) | [كوري](../ko/README.md) | [هندي](../hi/README.md) | [بنغالي](../bn/README.md) | [ماراثي](../mr/README.md) | [نيبالي](../ne/README.md) | [بنجابي (غورمخي)](../pa/README.md) | [برتغالي (البرتغال)](../pt/README.md) | [برتغالي (البرازيل)](../br/README.md) | [إيطالي](../it/README.md) | [بولندي](../pl/README.md) | [تركي](../tr/README.md) | [يوناني](../el/README.md) | [تايلاندي](../th/README.md) | [سويدي](../sv/README.md) | [دنماركي](../da/README.md) | [نرويجي](../no/README.md) | [فنلندي](../fi/README.md) | [هولندي](../nl/README.md) | [عبري](../he/README.md) | [فيتنامي](../vi/README.md) | [إندونيسي](../id/README.md) | [مالايو](../ms/README.md) | [تاغالوغ (فلبيني)](../tl/README.md) | [سواحلي](../sw/README.md) | [مجري](../hu/README.md) | [تشيكي](../cs/README.md) | [سلوفاكي](../sk/README.md) | [روماني](../ro/README.md) | [بلغاري](../bg/README.md) | [صربي (سيريلي)](../sr/README.md) | [كرواتي](../hr/README.md) | [سلوفيني](../sl/README.md) -## جدول المحتويات - -- المقدمة - - [مرحباً بك في عائلة Phi](./md/01.Introduction/01/01.PhiFamily.md) - - [إعداد بيئتك](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [فهم التقنيات الرئيسية](./md/01.Introduction/01/01.Understandingtech.md) - - [أمان الذكاء الاصطناعي لنماذج Phi](./md/01.Introduction/01/01.AISafety.md) - - [دعم الأجهزة لنماذج Phi](./md/01.Introduction/01/01.Hardwaresupport.md) - - [نماذج Phi وتوافرها عبر المنصات](./md/01.Introduction/01/01.Edgeandcloud.md) - - [استخدام Guidance-ai وPhi](./md/01.Introduction/01/01.Guidance.md) - - [نماذج سوق GitHub](https://github.com/marketplace/models) +[الفرنسية](../fr/README.md) | [الإسبانية](../es/README.md) | [الألمانية](../de/README.md) | [الروسية](../ru/README.md) | [العربية](./README.md) | [الفارسية (الفارسية)](../fa/README.md) | [الأردية](../ur/README.md) | [الصينية (المبسطة)](../zh/README.md) | [الصينية (التقليدية، ماكاو)](../mo/README.md) | [الصينية (التقليدية، هونغ كونغ)](../hk/README.md) | [الصينية (التقليدية، تايوان)](../tw/README.md) | [اليابانية](../ja/README.md) | [الكورية](../ko/README.md) | [الهندية](../hi/README.md) [البنغالية](../bn/README.md) | [الماراثية](../mr/README.md) | [النيبالية](../ne/README.md) | [البنجابية (الغورموخي)](../pa/README.md) | [البرتغالية (البرتغال)](../pt/README.md) | [البرتغالية (البرازيل)](../br/README.md) | [الإيطالية](../it/README.md) | [البولندية](../pl/README.md) | [التركية](../tr/README.md) | [اليونانية](../el/README.md) | [التايلاندية](../th/README.md) | [السويدية](../sv/README.md) | [الدانماركية](../da/README.md) | [النرويجية](../no/README.md) | [الفنلندية](../fi/README.md) | [الهولندية](../nl/README.md) | [العبرية](../he/README.md) | [الفيتنامية](../vi/README.md) | [الإندونيسية](../id/README.md) | [الماليزية](../ms/README.md) | [التاغالوغ (الفلبينية)](../tl/README.md) | [السواحلية](../sw/README.md) | [الهنغارية](../hu/README.md) | [التشيكية](../cs/README.md) | [السلوفاكية](../sk/README.md) | [الرومانية](../ro/README.md) | [البلغارية](../bg/README.md) | [الصربية (السيريلية)](../sr/README.md) | [الكرواتية](../hr/README.md) | [السلوفينية](../sl/README.md) +## فهرس المحتويات + +- مقدمة + - [مرحبًا بكم في عائلة Phi](./md/01.Introduction/01/01.PhiFamily.md) + - [إعداد بيئتك](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [فهم التقنيات الأساسية](./md/01.Introduction/01/01.Understandingtech.md) + - [أمان الذكاء الاصطناعي لنماذج Phi](./md/01.Introduction/01/01.AISafety.md) + - [دعم الأجهزة لـ Phi](./md/01.Introduction/01/01.Hardwaresupport.md) + - [نماذج Phi وتوافرها عبر المنصات](./md/01.Introduction/01/01.Edgeandcloud.md) + - [استخدام Guidance-ai و Phi](./md/01.Introduction/01/01.Guidance.md) + - [نماذج سوق GitHub](https://github.com/marketplace/models) - [كتالوج نماذج Azure AI](https://ai.azure.com) -- استنتاج Phi في بيئات مختلفة - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [نماذج GitHub](./md/01.Introduction/02/02.GitHubModel.md) - - [كتالوج نماذج Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [أداة الذكاء الاصطناعي VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- استنتاج عائلة Phi - - [استنتاج Phi في iOS](./md/01.Introduction/03/iOS_Inference.md) - - [استنتاج Phi في Android](./md/01.Introduction/03/Android_Inference.md) - - [استنتاج Phi في Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [استنتاج Phi في AI PC](./md/01.Introduction/03/AIPC_Inference.md) - - [استنتاج Phi باستخدام إطار عمل Apple MLX](./md/01.Introduction/03/MLX_Inference.md) - - [استنتاج Phi في الخادم المحلي](./md/01.Introduction/03/Local_Server_Inference.md) - - [استنتاج Phi في الخادم البعيد باستخدام أداة الذكاء الاصطناعي](./md/01.Introduction/03/Remote_Interence.md) - - [استنتاج Phi باستخدام Rust](./md/01.Introduction/03/Rust_Inference.md) - - [استنتاج Phi--Vision محلياً](./md/01.Introduction/03/Vision_Inference.md) - - [استنتاج Phi باستخدام Kaito AKS، حاويات Azure (الدعم الرسمي)](./md/01.Introduction/03/Kaito_Inference.md) - -- [تكميم عائلة Phi](./md/01.Introduction/04/QuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام إضافات الذكاء الاصطناعي التوليدي لـ onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) +- استدلال Phi في بيئات مختلفة + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [نماذج GitHub](./md/01.Introduction/02/02.GitHubModel.md) + - [كتالوج نماذج Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [أدوات AI في VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- استدلال عائلة Phi + - [استدلال Phi على iOS](./md/01.Introduction/03/iOS_Inference.md) + - [استدلال Phi على Android](./md/01.Introduction/03/Android_Inference.md) + - [استدلال Phi على Jetson](./md/01.Introduction/03/Jetson_Inference.md) + - [استدلال Phi على AI PC](./md/01.Introduction/03/AIPC_Inference.md) + - [استدلال Phi باستخدام إطار عمل Apple MLX](./md/01.Introduction/03/MLX_Inference.md) + - [استدلال Phi على الخادم المحلي](./md/01.Introduction/03/Local_Server_Inference.md) + - [استدلال Phi على الخادم البعيد باستخدام AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) + - [استدلال Phi باستخدام Rust](./md/01.Introduction/03/Rust_Inference.md) + - [استدلال Phi - الرؤية على المحلي](./md/01.Introduction/03/Vision_Inference.md) + - [استدلال Phi مع Kaito AKS وحاويات Azure (الدعم الرسمي)](./md/01.Introduction/03/Kaito_Inference.md) + +- [تكميم عائلة Phi](./md/01.Introduction/04/QuantifyingPhi.md) + - [تكميم Phi-3.5 / 4 باستخدام llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [تكميم Phi-3.5 / 4 باستخدام امتدادات الذكاء الاصطناعي التوليدية لـ onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [تكميم Phi-3.5 / 4 باستخدام Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - [تكميم Phi-3.5 / 4 باستخدام إطار عمل Apple MLX](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - تقييم Phi - [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry للتقييم](./md/01.Introduction/05/AIFoundry.md) - - [استخدام Promptflow للتقييم](./md/01.Introduction/05/Promptflow.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) - RAG مع Azure AI Search - - [كيفية استخدام Phi-4-mini و Phi-4-multimodal (RAG) مع Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + - [كيفية استخدام Phi-4-mini و Phi-4-multimodal(RAG) مع Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) -- عينات تطوير تطبيقات Phi - - تطبيقات النصوص والدردشة +- عينات تطوير تطبيق Phi + - تطبيقات النص والدردشة - عينات Phi-4 🆕 - - [📓] [الدردشة باستخدام نموذج Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [الدردشة باستخدام نموذج Phi-4 المحلي ONNX في .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [تطبيق Console للدردشة في .NET مع Phi-4 ONNX باستخدام Sementic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [📓] [الدردشة مع نموذج Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [الدردشة مع نموذج Phi-4 المحلي ONNX .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [تطبيق دردشة .NET Console مع Phi-4 ONNX باستخدام Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - عينات Phi-3 / 3.5 - - [روبوت دردشة محلي في المتصفح باستخدام Phi3 و ONNX Runtime Web و WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [بوت دردشة محلي في المتصفح باستخدام Phi3 و ONNX Runtime Web و WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - [دردشة OpenVino](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [نموذج متعدد - Phi-3-mini التفاعلي و OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - إنشاء غلاف واستخدام Phi-3 مع MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [تحسين النموذج - كيفية تحسين نموذج Phi-3-min لـ ONNX Runtime Web باستخدام Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [نموذج متعدد - Phi-3-mini تفاعلي و OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - بناء غلاف واستخدام Phi-3 مع MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [تحسين النموذج - كيفية تحسين نموذج Phi-3-mini لـ ONNX Runtime Web باستخدام Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) - [تطبيق WinUI3 مع Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [تطبيق WinUI3 متعدد النماذج للملاحظات المدعومة بالذكاء الاصطناعي](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [تخصيص وتكامل نماذج Phi-3 المخصصة مع Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [تخصيص وتكامل نماذج Phi-3 المخصصة مع Prompt flow في Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [تقييم نموذج Phi-3 / Phi-3.5 المُخصص في Azure AI Foundry مع التركيز على مبادئ الذكاء الاصطناعي المسؤول من Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [عينة توقع اللغة باستخدام Phi-3.5-mini-instruct (صيني/إنجليزي)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [روبوت دردشة RAG باستخدام Phi-3.5-Instruct WebGPU](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [استخدام GPU الخاص بنظام Windows لإنشاء حل Prompt flow باستخدام Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [استخدام Microsoft Phi-3.5 tflite لإنشاء تطبيق Android](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [مثال Q&A في .NET باستخدام نموذج Phi-3 المحلي ONNX مع Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) - - [تطبيق Console للدردشة في .NET مع Semantic Kernel و Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) - - - عينات تعتمد على SDK استدلال Azure AI + - [عينة تطبيق ملاحظات متعددة النماذج مدعوم بالذكاء الاصطناعي WinUI3](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [ضبط دقيق ودمج نماذج Phi-3 المخصصة مع Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [ضبط دقيق ودمج نماذج Phi-3 المخصصة مع Prompt flow في Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [تقييم نموذج Phi-3 / Phi-3.5 المضبوط بدقة في Azure AI Foundry مع التركيز على مبادئ Responsible AI من Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [عينة توقع اللغة Phi-3.5-mini-instruct (صيني/إنجليزي)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [بوت دردشة Phi-3.5-Instruct WebGPU RAG](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [استخدام GPU في Windows لإنشاء حل Prompt flow مع Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [استخدام Microsoft Phi-3.5 tflite لإنشاء تطبيق أندرويد](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [مثال سؤال وجواب .NET باستخدام نموذج Phi-3 المحلي ONNX مع Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [تطبيق دردشة Console .NET مع Semantic Kernel و Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) + + - عينات تعتمد على كود Azure AI Inference SDK - عينات Phi-4 🆕 - - [📓] [إنشاء كود المشروع باستخدام Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - [📓] [توليد كود المشروع باستخدام Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - عينات Phi-3 / 3.5 - - [قم ببناء Visual Studio Code GitHub Copilot Chat الخاص بك باستخدام عائلة Microsoft Phi-3](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [قم بإنشاء وكيل دردشة Visual Studio Code الخاص بك باستخدام Phi-3.5 ونماذج GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [بناء دردشة GitHub Copilot لـ Visual Studio Code باستخدام عائلة Microsoft Phi-3](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [إنشاء وكيل دردشة GitHub Copilot الخاص بك لـ Visual Studio Code باستخدام Phi-3.5 بواسطة نماذج GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - عينات التفكير المتقدم + - عينات الاستدلال المتقدم - عينات Phi-4 🆕 - - [📓] [عينات التفكير المتقدم Phi-4-mini](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - + - [📓] [عينات Phi-4-mini-reasoning أو Phi-4-reasoning](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [الضبط الدقيق لـ Phi-4-mini-reasoning باستخدام Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [الضبط الدقيق لـ Phi-4-mini-reasoning باستخدام Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning مع نماذج GitHub](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini للتفكير مع نماذج Azure AI Foundry](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) - العروض التوضيحية - - [العروض التوضيحية لـ Phi-4-mini المستضافة على Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [العروض التوضيحية لـ Phi-4-multimodal المستضافة على Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - [عروض Phi-4-mini مستضافة على Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [عروض Phi-4-multimodal مستضافة على Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - عينات الرؤية - عينات Phi-4 🆕 - - [📓] [استخدام Phi-4-multimodal لقراءة الصور وإنشاء الكود](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - [📓] [استخدام Phi-4-multimodal لقراءة الصور وتوليد الكود](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - عينات Phi-3 / 3.5 + - [📓][Phi-3-vision-تحويل نص الصورة إلى نص](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) + - [📓][تضمين CLIP لـ Phi-3-vision](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [DEMO: إعادة التدوير مع Phi-3](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - مساعد اللغة البصرية - مع Phi3-Vision و OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) + - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) + - [📓][عينة متعددة الإطارات أو متعددة الصور لـ Phi-3.5 Vision](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [نموذج ONNX محلي لـ Phi-3 Vision باستخدام Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [نموذج ONNX محلي لـ Phi-3 Vision مع قائمة باستخدام Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + + - عينات الصوت + - عينات Phi-4 🆕 + - [📓] [استخراج نصوص الصوت باستخدام Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [عينة صوتية لـ Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [عينة ترجمة الكلام باستخدام Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [تطبيق .NET console يستخدم Phi-4-multimodal لتحليل ملف صوتي وتوليد النص](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + + - عينات MOE - عينات Phi-3 / 3.5 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - مساعد اللغة البصرية - باستخدام Phi3-Vision و OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision نموذج متعدد الإطارات أو متعدد الصور](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision نموذج ONNX محلي باستخدام Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [نموذج ONNX محلي لـ Phi-3 Vision باستخدام Microsoft.ML.OnnxRuntime .NET القائم على القوائم](../../md/04.HOL/dotnet/src/LabsPhi304) - - - عينات الصوت - - عينات Phi-4 🆕 - - [📓] [استخراج النصوص الصوتية باستخدام Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [عينة صوتية لـ Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [عينة ترجمة الصوت باستخدام Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET تطبيق كونسول باستخدام Phi-4-multimodal لتحليل ملف صوتي وإنشاء نص](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - - عينات MOE - - عينات Phi-3 / 3.5 - - [📓] [Phi-3.5 نماذج Mixture of Experts (MoEs) عينة وسائل التواصل الاجتماعي](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [بناء خط أنابيب استرجاع معزز للتوليد (RAG) باستخدام NVIDIA NIM Phi-3 MOE، بحث Azure AI، و LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - - عينات استدعاء الوظائف - - عينات Phi-4 🆕 - - [📓] [استخدام استدعاء الوظائف مع Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [استخدام استدعاء الوظائف لإنشاء وكلاء متعددين باستخدام Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [استخدام استدعاء الوظائف مع Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - - عينات المزج متعدد الوسائط - - عينات Phi-4 🆕 - - [📓] [استخدام Phi-4-multimodal كصحفي تقني](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET تطبيق كونسول باستخدام Phi-4-multimodal لتحليل الصور](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- تحسين Phi - - [سيناريوهات تحسين الأداء](./md/03.FineTuning/FineTuning_Scenarios.md) - - [تحسين الأداء مقابل RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [تحسين الأداء لجعل Phi-3 خبيرًا في الصناعة](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [تحسين Phi-3 باستخدام أدوات الذكاء الاصطناعي لـ VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [تحسين Phi-3 باستخدام خدمة Azure Machine Learning](./md/03.FineTuning/Introduce_AzureML.md) - - [تحسين Phi-3 باستخدام Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [تحسين Phi-3 باستخدام QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [تحسين Phi-3 باستخدام Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [تحسين Phi-3 باستخدام CLI/SDK الخاص بـ Azure ML](./md/03.FineTuning/FineTuning_MLSDK.md) -- [التخصيص باستخدام Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [مختبر عملي للتخصيص باستخدام Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) - - [تخصيص Phi-3-vision باستخدام Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [تخصيص Phi-3 باستخدام إطار عمل Apple MLX](./md/03.FineTuning/FineTuning_MLX.md) - - [تخصيص Phi-3-vision (الدعم الرسمي)](./md/03.FineTuning/FineTuning_Vision.md) - - [تخصيص Phi-3 باستخدام Kaito AKS و Azure Containers (الدعم الرسمي)](./md/03.FineTuning/FineTuning_Kaito.md) - - [تخصيص Phi-3 و Phi-3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - -- مختبر عملي - - [استكشاف النماذج المتطورة: LLMs، SLMs، التطوير المحلي والمزيد](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [إطلاق الإمكانيات في معالجة اللغة الطبيعية: التخصيص باستخدام Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) - -- أوراق بحثية ومنشورات أكاديمية - - [الكتب المدرسية هي كل ما تحتاجه II: تقرير تقني phi-1.5](https://arxiv.org/abs/2309.05463) - - [تقرير تقني Phi-3: نموذج لغوي عالي الكفاءة محليًا على هاتفك](https://arxiv.org/abs/2404.14219) - - [تقرير تقني Phi-4](https://arxiv.org/abs/2412.08905) - - [تقرير تقني Phi-4-Mini: نماذج لغوية متعددة الوسائط قوية وصغيرة الحجم عبر مزيج من LoRAs](https://arxiv.org/abs/2503.01743) - - [تحسين نماذج اللغة الصغيرة لاستدعاء الوظائف داخل المركبة](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) تخصيص PHI-3 للإجابة على أسئلة الاختيار المتعدد: المنهجية، النتائج، والتحديات](https://arxiv.org/abs/2501.01588) - -## استخدام نماذج Phi - -### Phi على Azure AI Foundry - -يمكنك تعلم كيفية استخدام Microsoft Phi وكيفية بناء حلول شاملة على أجهزتك المختلفة. لتجربة Phi بنفسك، ابدأ باللعب بالنماذج وتخصيص Phi لسيناريوهاتك باستخدام [كتالوج نماذج Azure AI Foundry](https://aka.ms/phi3-azure-ai). يمكنك معرفة المزيد من خلال دليل البدء السريع [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). - -**مساحة التجربة** -لكل نموذج مساحة مخصصة لتجربة النموذج [Azure AI Playground](https://aka.ms/try-phi3). - -### Phi على GitHub Models - -يمكنك تعلم كيفية استخدام Microsoft Phi وكيفية بناء حلول شاملة على أجهزتك المختلفة. لتجربة Phi بنفسك، ابدأ باللعب بالنماذج وتخصيص Phi لسيناريوهاتك باستخدام [كتالوج نماذج GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). يمكنك معرفة المزيد من خلال دليل البدء السريع [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md). - -**مساحة التجربة** -لكل نموذج [مساحة مخصصة لتجربة النموذج](/md/02.QuickStart/GitHubModel_QuickStart.md). - -### Phi على Hugging Face - -يمكنك أيضًا العثور على النموذج على [Hugging Face](https://huggingface.co/microsoft). - -**مساحة التجربة** -[مساحة Hugging Chat للتجربة](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct). - -## الذكاء الاصطناعي المسؤول - -تلتزم Microsoft بمساعدة عملائنا في استخدام منتجات الذكاء الاصطناعي لدينا بشكل مسؤول، ومشاركة ما تعلمناه، وبناء شراكات قائمة على الثقة من خلال أدوات مثل ملاحظات الشفافية وتقييمات الأثر. يمكن العثور على العديد من هذه الموارد في [https://aka.ms/RAI](https://aka.ms/RAI). -تعتمد نهج Microsoft في الذكاء الاصطناعي المسؤول على مبادئ الذكاء الاصطناعي الخاصة بنا وهي الإنصاف، الموثوقية والسلامة، الخصوصية والأمان، الشمولية، الشفافية، والمساءلة. - -النماذج الكبيرة لمعالجة النصوص والصور والصوت - مثل تلك المستخدمة في هذا المثال - قد تتصرف بطرق غير عادلة أو غير موثوقة أو مسيئة، مما قد يتسبب في أضرار. يرجى الرجوع إلى [ملاحظة الشفافية لخدمة Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) للحصول على معلومات حول المخاطر والقيود. - -النهج الموصى به لتقليل هذه المخاطر هو تضمين نظام أمان في بنية التطبيق يمكنه اكتشاف ومنع السلوك الضار. [أمان محتوى Azure AI](https://learn.microsoft.com/azure/ai-services/content-safety/overview) يوفر طبقة حماية مستقلة، قادرة على اكتشاف المحتوى الضار الذي يتم إنشاؤه من قبل المستخدمين أو الذكاء الاصطناعي في التطبيقات والخدمات. يشمل أمان محتوى Azure AI واجهات برمجة التطبيقات للنصوص والصور التي تمكنك من اكتشاف المواد الضارة. داخل Azure AI Foundry، تتيح لك خدمة أمان المحتوى عرض واستكشاف وتجربة أمثلة للكود الخاص باكتشاف المحتوى الضار عبر وسائط مختلفة. يوجهك [وثائق البدء السريع](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) في كيفية إرسال طلبات إلى الخدمة. - -جانب آخر يجب أخذه بعين الاعتبار هو الأداء العام للتطبيق. مع التطبيقات متعددة الوسائط والنماذج المتعددة، يعتبر الأداء هو أن النظام يعمل كما تتوقع أنت والمستخدمون، بما في ذلك عدم إنتاج مخرجات ضارة. من المهم تقييم أداء التطبيق العام باستخدام [مقيمي الأداء والجودة ومقيمي المخاطر والسلامة](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). لديك أيضًا القدرة على إنشاء وتقييم [مقيمي مخصصين](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -يمكنك تقييم تطبيق الذكاء الاصطناعي الخاص بك في بيئة التطوير باستخدام [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). سواء كنت تستخدم مجموعة بيانات اختبار أو هدفًا معينًا، يتم قياس نتائج تطبيق الذكاء الاصطناعي التوليدي الخاص بك كميًا باستخدام أدوات التقييم المدمجة أو أدوات التقييم المخصصة التي تختارها. للبدء باستخدام Azure AI Evaluation SDK لتقييم النظام الخاص بك، يمكنك اتباع [دليل البدء السريع](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). بمجرد تنفيذ عملية التقييم، يمكنك [عرض النتائج في Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). + - [📓] [نماذج Phi-3.5 Mixture of Experts (MoEs) عينة وسائل التواصل الاجتماعي](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [بناء خط أنابيب استرجاع معزز للتوليد (RAG) باستخدام NVIDIA NIM Phi-3 MOE و Azure AI Search و LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - عينات استدعاء الدوال + - عينات Phi-4 🆕 + - [📓] [استخدام استدعاء الدوال مع Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [استخدام استدعاء الدوال لإنشاء وكلاء متعددين مع Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [استخدام استدعاء الدوال مع Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - عينات الخلط متعدد الوسائط + - عينات Phi-4 🆕 + - [📓] [استخدام Phi-4-multimodal كصحفي تقني](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [تطبيق .NET console يستخدم Phi-4-multimodal لتحليل الصور](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- ضبط دقيق لعينات Phi + - [سيناريوهات الضبط الدقيق](./md/03.FineTuning/FineTuning_Scenarios.md) + - [الضبط الدقيق مقابل RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [الضبط الدقيق لجعل Phi-3 خبيرًا صناعيًا](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [الضبط الدقيق لـ Phi-3 باستخدام AI Toolkit لـ VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [الضبط الدقيق لـ Phi-3 باستخدام خدمة Azure Machine Learning](./md/03.FineTuning/Introduce_AzureML.md) +- [ضبط دقيق لـ Phi-3 باستخدام Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [ضبط دقيق لـ Phi-3 باستخدام QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [ضبط دقيق لـ Phi-3 باستخدام Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [ضبط دقيق لـ Phi-3 باستخدام Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [الضبط الدقيق باستخدام Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [مختبر عملي للضبط الدقيق باستخدام Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) + - [ضبط دقيق لـ Phi-3-vision باستخدام Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [ضبط دقيق لـ Phi-3 باستخدام إطار عمل Apple MLX](./md/03.FineTuning/FineTuning_MLX.md) + - [ضبط دقيق لـ Phi-3-vision (الدعم الرسمي)](./md/03.FineTuning/FineTuning_Vision.md) + - [الضبط الدقيق لـ Phi-3 باستخدام Kaito AKS وحاويات Azure (الدعم الرسمي)](./md/03.FineTuning/FineTuning_Kaito.md) + - [الضبط الدقيق لـ Phi-3 و3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) + +- مختبر عملي + - [استكشاف النماذج المتطورة: LLMs، SLMs، التطوير المحلي والمزيد](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [إطلاق إمكانيات معالجة اللغة الطبيعية: الضبط الدقيق باستخدام Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) + +- أوراق بحثية ومنشورات أكاديمية + - [الكتب الدراسية هي كل ما تحتاجه II: تقرير فني عن phi-1.5](https://arxiv.org/abs/2309.05463) + - [تقرير فني عن Phi-3: نموذج لغوي قوي يعمل محليًا على هاتفك](https://arxiv.org/abs/2404.14219) + - [تقرير فني عن Phi-4](https://arxiv.org/abs/2412.08905) + - [تقرير فني عن Phi-4-Mini: نماذج لغوية متعددة الوسائط مدمجة وقوية عبر مزيج من LoRAs](https://arxiv.org/abs/2503.01743) + - [تحسين النماذج اللغوية الصغيرة لاستدعاء الوظائف داخل السيارة](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) الضبط الدقيق لـ PHI-3 للإجابة على أسئلة الاختيار من متعدد: المنهجية، النتائج، والتحديات](https://arxiv.org/abs/2501.01588) + - [تقرير فني عن التفكير في Phi-4](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [تقرير فني عن التفكير في Phi-4-mini](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) + +## استخدام نماذج Phi + +### Phi على Azure AI Foundry + +يمكنك تعلم كيفية استخدام Microsoft Phi وكيفية بناء حلول شاملة على أجهزتك المختلفة. لتجربة Phi بنفسك، ابدأ بالتفاعل مع النماذج وتخصيص Phi لسيناريوهاتك باستخدام [كتالوج نماذج Azure AI Foundry](https://aka.ms/phi3-azure-ai) يمكنك معرفة المزيد في قسم البداية السريعة مع [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) + +**ملعب التجارب** +لكل نموذج ملعب مخصص لاختبار النموذج [Azure AI Playground](https://aka.ms/try-phi3). + +### Phi على نماذج GitHub + +يمكنك تعلم كيفية استخدام Microsoft Phi وكيفية بناء حلول شاملة على أجهزتك المختلفة. لتجربة Phi بنفسك، ابدأ بالتفاعل مع النموذج وتخصيص Phi لسيناريوهاتك باستخدام [كتالوج نماذج GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) يمكنك معرفة المزيد في قسم البداية السريعة مع [كتالوج نماذج GitHub](/md/02.QuickStart/GitHubModel_QuickStart.md) + +**ملعب التجارب** +لكل نموذج ملعب مخصص [لاختبار النموذج](/md/02.QuickStart/GitHubModel_QuickStart.md). + +### Phi على Hugging Face + +يمكنك أيضًا العثور على النموذج على [Hugging Face](https://huggingface.co/microsoft) + +**ملعب التجارب** +[ملعب Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) + +## الذكاء الاصطناعي المسؤول + +تلتزم Microsoft بمساعدة عملائنا على استخدام منتجات الذكاء الاصطناعي بمسؤولية، ومشاركة ما نتعلمه، وبناء شراكات قائمة على الثقة من خلال أدوات مثل ملاحظات الشفافية وتقييمات التأثير. يمكن العثور على العديد من هذه الموارد على [https://aka.ms/RAI](https://aka.ms/RAI). +تعتمد مقاربة Microsoft للذكاء الاصطناعي المسؤول على مبادئنا في الذكاء الاصطناعي والتي تشمل العدالة، والموثوقية والسلامة، والخصوصية والأمان، والشمولية، والشفافية، والمساءلة. +نماذج اللغة الطبيعية واسعة النطاق، والصور، والكلام - مثل تلك المستخدمة في هذا المثال - قد تتصرف بطرق غير عادلة أو غير موثوقة أو مسيئة، مما قد يتسبب في أضرار. يرجى الاطلاع على [ملاحظة الشفافية لخدمة Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) لتكون على علم بالمخاطر والقيود. + +النهج الموصى به لتقليل هذه المخاطر هو تضمين نظام أمان في هيكلك يمكنه اكتشاف ومنع السلوك الضار. يوفر [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) طبقة حماية مستقلة، قادرة على اكتشاف المحتوى الضار الذي ينشئه المستخدم أو الذكاء الاصطناعي في التطبيقات والخدمات. يتضمن Azure AI Content Safety واجهات برمجة تطبيقات للنص والصورة تسمح لك باكتشاف المواد الضارة. داخل Azure AI Foundry، تتيح لك خدمة Content Safety عرض واستكشاف وتجربة أمثلة على الكود لاكتشاف المحتوى الضار عبر أنماط مختلفة. ترشدك وثائق [البدء السريع التالية](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) خلال كيفية إرسال الطلبات إلى الخدمة. + +جانب آخر يجب أخذه في الاعتبار هو أداء التطبيق بشكل عام. مع التطبيقات متعددة الأنماط ومتعددة النماذج، نعتبر الأداء بمعنى أن النظام يعمل كما تتوقع أنت ومستخدموك، بما في ذلك عدم توليد مخرجات ضارة. من المهم تقييم أداء تطبيقك العام باستخدام [مقاييس الأداء والجودة والمخاطر والسلامة](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). لديك أيضًا القدرة على الإنشاء والتقييم باستخدام [المقاييس المخصصة](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). + +يمكنك تقييم تطبيق الذكاء الاصطناعي الخاص بك في بيئة التطوير باستخدام [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). سواء باستخدام مجموعة بيانات اختبار أو هدف معين، يتم قياس توليدات تطبيق الذكاء الاصطناعي التوليدي الخاص بك كميًا باستخدام المقاييس المدمجة أو المقاييس المخصصة التي تختارها. للبدء باستخدام azure ai evaluation sdk لتقييم نظامك، يمكنك اتباع [دليل البدء السريع](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). بمجرد تنفيذ تقييم، يمكنك [عرض النتائج في Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). ## العلامات التجارية -قد يحتوي هذا المشروع على علامات تجارية أو شعارات خاصة بالمشاريع أو المنتجات أو الخدمات. الاستخدام المصرح به لعلامات Microsoft التجارية أو الشعارات يجب أن يتبع [إرشادات العلامات التجارية والعلامات الخاصة بـ Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). -استخدام علامات Microsoft التجارية أو الشعارات في نسخ معدلة من هذا المشروع يجب ألا يسبب ارتباكًا أو يوحي برعاية من Microsoft. أي استخدام لعلامات تجارية أو شعارات خاصة بأطراف ثالثة يخضع لسياسات تلك الأطراف الثالثة. +قد يحتوي هذا المشروع على علامات تجارية أو شعارات لمشاريع أو منتجات أو خدمات. يخضع الاستخدام المصرح به لعلامات Microsoft التجارية أو شعاراتها ويجب أن يتبع [إرشادات العلامات التجارية والهوية الخاصة بـ Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). +يجب ألا يسبب استخدام علامات Microsoft التجارية أو شعاراتها في النسخ المعدلة من هذا المشروع ارتباكًا أو يوحي برعاية Microsoft. يخضع أي استخدام لعلامات تجارية أو شعارات جهات خارجية لسياسات تلك الجهات الخارجية. -**إخلاء المسؤولية**: -تم ترجمة هذا المستند باستخدام خدمة الترجمة بالذكاء الاصطناعي [Co-op Translator](https://github.com/Azure/co-op-translator). بينما نسعى لتحقيق الدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو معلومات غير دقيقة. يجب اعتبار المستند الأصلي بلغته الأصلية المصدر الموثوق. للحصول على معلومات حاسمة، يُوصى بالاستعانة بترجمة بشرية احترافية. نحن غير مسؤولين عن أي سوء فهم أو تفسيرات خاطئة ناتجة عن استخدام هذه الترجمة. \ No newline at end of file +**تنويه**: +تمت ترجمة هذا المستند باستخدام خدمة الترجمة الآلية [Co-op Translator](https://github.com/Azure/co-op-translator). بينما نسعى للدقة، يرجى العلم أن الترجمات الآلية قد تحتوي على أخطاء أو عدم دقة. يجب اعتبار المستند الأصلي بلغته الأصلية المصدر المعتمد. للمعلومات الهامة، يُنصح بالترجمة الاحترافية البشرية. نحن غير مسؤولين عن أي سوء فهم أو تفسير خاطئ ناتج عن استخدام هذه الترجمة. \ No newline at end of file diff --git a/translations/de/README.md b/translations/de/README.md index 4bbc1d30..963e9e41 100644 --- a/translations/de/README.md +++ b/translations/de/README.md @@ -1,232 +1,238 @@ -# Phi Cookbook: Praktische Beispiele mit Microsofts Phi-Modellen +# Phi Cookbook: Praktische Beispiele mit den Phi-Modellen von Microsoft -[![Öffnen und Beispiele in GitHub Codespaces nutzen](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) -[![Öffnen in Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) +[![Open and use the samples in GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Open in Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -[![GitHub-Mitwirkende](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub-Issues](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub-Pull-Requests](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) -[![PRs Willkommen](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub contributors](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub issues](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub pull-requests](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub-Beobachter](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub-Forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub-Sterne](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub watchers](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub stars](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) [![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -Phi ist eine Serie von Open-Source-KI-Modellen, die von Microsoft entwickelt wurden. +Phi ist eine Reihe von Open-Source-KI-Modellen, die von Microsoft entwickelt wurden. -Phi ist derzeit das leistungsstärkste und kosteneffektivste kleine Sprachmodell (SLM) mit hervorragenden Benchmarks in den Bereichen Mehrsprachigkeit, logisches Denken, Text-/Chatgenerierung, Programmierung, Bilder, Audio und anderen Szenarien. +Phi ist derzeit das leistungsstärkste und kosteneffizienteste kleine Sprachmodell (SLM) mit sehr guten Ergebnissen in Mehrsprachigkeit, logischem Denken, Text-/Chat-Generierung, Programmierung, Bildern, Audio und weiteren Anwendungsfällen. -Sie können Phi in der Cloud oder auf Edge-Geräten bereitstellen und mit begrenzter Rechenleistung problemlos generative KI-Anwendungen entwickeln. +Du kannst Phi in der Cloud oder auf Edge-Geräten bereitstellen und damit einfach generative KI-Anwendungen mit begrenzter Rechenleistung entwickeln. -Befolgen Sie diese Schritte, um die Ressourcen zu nutzen: -1. **Repository forken**: Klicken Sie auf [![GitHub-Forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **Repository klonen**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Treten Sie der Microsoft AI Discord Community bei und treffen Sie Experten sowie andere Entwickler**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +Folge diesen Schritten, um mit diesen Ressourcen zu starten: +1. **Forke das Repository**: Klicke auf [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **Klone das Repository**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**Tritt der Microsoft AI Discord Community bei und tausche dich mit Experten und anderen Entwicklern aus**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.de.png) ## 🌐 Mehrsprachige Unterstützung -[Französisch](../fr/README.md) | [Spanisch](../es/README.md) | [Deutsch](./README.md) | [Russisch](../ru/README.md) | [Arabisch](../ar/README.md) | [Persisch (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chinesisch (Vereinfacht)](../zh/README.md) | [Chinesisch (Traditionell, Macau)](../mo/README.md) | [Chinesisch (Traditionell, Hongkong)](../hk/README.md) | [Chinesisch (Traditionell, Taiwan)](../tw/README.md) | [Japanisch](../ja/README.md) | [Koreanisch](../ko/README.md) | [Hindi](../hi/README.md) | [Bengalisch](../bn/README.md) | [Marathi](../mr/README.md) | [Nepalesisch](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portugiesisch (Portugal)](../pt/README.md) | [Portugiesisch (Brasilien)](../br/README.md) | [Italienisch](../it/README.md) | [Polnisch](../pl/README.md) | [Türkisch](../tr/README.md) | [Griechisch](../el/README.md) | [Thailändisch](../th/README.md) | [Schwedisch](../sv/README.md) | [Dänisch](../da/README.md) | [Norwegisch](../no/README.md) | [Finnisch](../fi/README.md) | [Niederländisch](../nl/README.md) | [Hebräisch](../he/README.md) | [Vietnamesisch](../vi/README.md) | [Indonesisch](../id/README.md) | [Malaiisch](../ms/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Swahili](../sw/README.md) | [Ungarisch](../hu/README.md) | [Tschechisch](../cs/README.md) | [Slowakisch](../sk/README.md) | [Rumänisch](../ro/README.md) | [Bulgarisch](../bg/README.md) | [Serbisch (Kyrillisch)](../sr/README.md) | [Kroatisch](../hr/README.md) | [Slowenisch](../sl/README.md) +[Französisch](../fr/README.md) | [Spanisch](../es/README.md) | [Deutsch](./README.md) | [Russisch](../ru/README.md) | [Arabisch](../ar/README.md) | [Persisch (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chinesisch (Vereinfacht)](../zh/README.md) | [Chinesisch (Traditionell, Macau)](../mo/README.md) | [Chinesisch (Traditionell, Hongkong)](../hk/README.md) | [Chinesisch (Traditionell, Taiwan)](../tw/README.md) | [Japanisch](../ja/README.md) | [Koreanisch](../ko/README.md) | [Hindi](../hi/README.md) [Bengalisch](../bn/README.md) | [Marathi](../mr/README.md) | [Nepalesisch](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portugiesisch (Portugal)](../pt/README.md) | [Portugiesisch (Brasilien)](../br/README.md) | [Italienisch](../it/README.md) | [Polnisch](../pl/README.md) | [Türkisch](../tr/README.md) | [Griechisch](../el/README.md) | [Thailändisch](../th/README.md) | [Schwedisch](../sv/README.md) | [Dänisch](../da/README.md) | [Norwegisch](../no/README.md) | [Finnisch](../fi/README.md) | [Niederländisch](../nl/README.md) | [Hebräisch](../he/README.md) | [Vietnamesisch](../vi/README.md) | [Indonesisch](../id/README.md) | [Malaiisch](../ms/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Suaheli](../sw/README.md) | [Ungarisch](../hu/README.md) | [Tschechisch](../cs/README.md) | [Slowakisch](../sk/README.md) | [Rumänisch](../ro/README.md) | [Bulgarisch](../bg/README.md) | [Serbisch (Kyrillisch)](../sr/README.md) | [Kroatisch](../hr/README.md) | [Slowenisch](../sl/README.md)Bitte schreiben Sie die Ausgabe von links nach rechts. + +[Französisch](../fr/README.md) | [Spanisch](../es/README.md) | [Deutsch](./README.md) | [Russisch](../ru/README.md) | [Arabisch](../ar/README.md) | [Persisch (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chinesisch (Vereinfacht)](../zh/README.md) | [Chinesisch (Traditionell, Macau)](../mo/README.md) | [Chinesisch (Traditionell, Hongkong)](../hk/README.md) | [Chinesisch (Traditionell, Taiwan)](../tw/README.md) | [Japanisch](../ja/README.md) | [Koreanisch](../ko/README.md) | [Hindi](../hi/README.md) [Bengalisch](../bn/README.md) | [Marathi](../mr/README.md) | [Nepalesisch](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portugiesisch (Portugal)](../pt/README.md) | [Portugiesisch (Brasilien)](../br/README.md) | [Italienisch](../it/README.md) | [Polnisch](../pl/README.md) | [Türkisch](../tr/README.md) | [Griechisch](../el/README.md) | [Thailändisch](../th/README.md) | [Schwedisch](../sv/README.md) | [Dänisch](../da/README.md) | [Norwegisch](../no/README.md) | [Finnisch](../fi/README.md) | [Niederländisch](../nl/README.md) | [Hebräisch](../he/README.md) | [Vietnamesisch](../vi/README.md) | [Indonesisch](../id/README.md) | [Malaiisch](../ms/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Suaheli](../sw/README.md) | [Ungarisch](../hu/README.md) | [Tschechisch](../cs/README.md) | [Slowakisch](../sk/README.md) | [Rumänisch](../ro/README.md) | [Bulgarisch](../bg/README.md) | [Serbisch (Kyrillisch)](../sr/README.md) | [Kroatisch](../hr/README.md) | [Slowenisch](../sl/README.md) ## Inhaltsverzeichnis - Einführung - [Willkommen in der Phi-Familie](./md/01.Introduction/01/01.PhiFamily.md) - [Einrichten Ihrer Umgebung](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [Verstehen von Schlüsseltechnologien](./md/01.Introduction/01/01.Understandingtech.md) - - [KI-Sicherheit für Phi-Modelle](./md/01.Introduction/01/01.AISafety.md) - - [Unterstützung von Phi-Hardware](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Verstehen der Schlüsseltechnologien](./md/01.Introduction/01/01.Understandingtech.md) + - [AI-Sicherheit für Phi-Modelle](./md/01.Introduction/01/01.AISafety.md) + - [Phi Hardware-Unterstützung](./md/01.Introduction/01/01.Hardwaresupport.md) - [Phi-Modelle & Verfügbarkeit auf verschiedenen Plattformen](./md/01.Introduction/01/01.Edgeandcloud.md) - [Verwendung von Guidance-ai und Phi](./md/01.Introduction/01/01.Guidance.md) - - [GitHub Marketplace Modelle](https://github.com/marketplace/models) - - [Azure AI Modellkatalog](https://ai.azure.com) - -- Phi-Inferenz in verschiedenen Umgebungen - - [Hugging Face](./md/01.Introduction/02/01.HF.md) - - [GitHub-Modelle](./md/01.Introduction/02/02.GitHubModel.md) - - [Azure AI Foundry Modellkatalog](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- Phi-Familie-Inferenz - - [Phi-Inferenz auf iOS](./md/01.Introduction/03/iOS_Inference.md) - - [Phi-Inferenz auf Android](./md/01.Introduction/03/Android_Inference.md) - - [Phi-Inferenz auf Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [Phi-Inferenz auf AI-PC](./md/01.Introduction/03/AIPC_Inference.md) - - [Phi-Inferenz mit dem Apple MLX Framework](./md/01.Introduction/03/MLX_Inference.md) - - [Phi-Inferenz auf einem lokalen Server](./md/01.Introduction/03/Local_Server_Inference.md) - - [Phi-Inferenz auf einem Remote-Server mit AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) - - [Phi-Inferenz mit Rust](./md/01.Introduction/03/Rust_Inference.md) - - [Phi-Vision-Inferenz lokal](./md/01.Introduction/03/Vision_Inference.md) - - [Phi-Inferenz mit Kaito AKS, Azure Containers (offizielle Unterstützung)](./md/01.Introduction/03/Kaito_Inference.md) - -- [Quantifizierung der Phi-Familie](./md/01.Introduction/04/QuantifyingPhi.md) + - [GitHub Marketplace Models](https://github.com/marketplace/models) + - [Azure AI Model Catalog](https://ai.azure.com) + +- Inferenz Phi in verschiedenen Umgebungen + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub Models](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry Model Catalog](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Inferenz Phi Familie + - [Inference Phi auf iOS](./md/01.Introduction/03/iOS_Inference.md) + - [Inference Phi auf Android](./md/01.Introduction/03/Android_Inference.md) + - [Inference Phi auf Jetson](./md/01.Introduction/03/Jetson_Inference.md) + - [Inference Phi auf AI-PC](./md/01.Introduction/03/AIPC_Inference.md) + - [Inference Phi mit Apple MLX Framework](./md/01.Introduction/03/MLX_Inference.md) + - [Inference Phi auf lokalem Server](./md/01.Introduction/03/Local_Server_Inference.md) + - [Inference Phi auf Remote-Server mit AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) + - [Inference Phi mit Rust](./md/01.Introduction/03/Rust_Inference.md) + - [Inference Phi--Vision lokal](./md/01.Introduction/03/Vision_Inference.md) + - [Inference Phi mit Kaito AKS, Azure Containers (offizielle Unterstützung)](./md/01.Introduction/03/Kaito_Inference.md) +- [Quantifizierung der Phi-Familie](./md/01.Introduction/04/QuantifyingPhi.md) - [Quantisierung von Phi-3.5 / 4 mit llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [Quantisierung von Phi-3.5 / 4 mit generativen KI-Erweiterungen für onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Quantisierung von Phi-3.5 / 4 mit Generative AI Extensions für onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - [Quantisierung von Phi-3.5 / 4 mit Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Quantisierung von Phi-3.5 / 4 mit dem Apple MLX Framework](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + - [Quantisierung von Phi-3.5 / 4 mit Apple MLX Framework](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) -- Bewertung von Phi +- Evaluation Phi - [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry zur Bewertung](./md/01.Introduction/05/AIFoundry.md) - - [Verwendung von Promptflow zur Bewertung](./md/01.Introduction/05/Promptflow.md) + - [Azure AI Foundry für Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Verwendung von Promptflow für Evaluation](./md/01.Introduction/05/Promptflow.md) - RAG mit Azure AI Search - - [Wie man Phi-4-mini und Phi-4-multimodal (RAG) mit Azure AI Search verwendet](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + - [Wie man Phi-4-mini und Phi-4-multimodal(RAG) mit Azure AI Search verwendet](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) -- Phi-Anwendungsentwicklung-Beispiele - - Text- und Chat-Anwendungen +- Phi Anwendungsentwicklung Beispiele + - Text- & Chat-Anwendungen - Phi-4 Beispiele 🆕 - - [📓] [Chat mit Phi-4-mini ONNX-Modell](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Chat mit Phi-4 lokalem ONNX-Modell .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Chat .NET Konsolenanwendung mit Phi-4 ONNX unter Verwendung des Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [📓] [Chat mit Phi-4-mini ONNX Modell](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [Chat mit Phi-4 lokalem ONNX Modell .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Chat .NET Konsolenanwendung mit Phi-4 ONNX unter Verwendung von Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - Phi-3 / 3.5 Beispiele - [Lokaler Chatbot im Browser mit Phi3, ONNX Runtime Web und WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - [OpenVino Chat](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [Multi-Modell - Interaktives Phi-3-mini und OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - Erstellung eines Wrappers und Nutzung von Phi-3 mit MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [Modelloptimierung - Wie man das Phi-3-min-Modell für ONNX Runtime Web mit Olive optimiert](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [Multi Model - Interaktiver Phi-3-mini und OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - Wrapper erstellen und Phi-3 mit MLFlow verwenden](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [Modelloptimierung - Wie man das Phi-3-min Modell für ONNX Runtime Web mit Olive optimiert](https://github.com/microsoft/Olive/tree/main/examples/phi3) - [WinUI3 App mit Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 Multi-Modell KI-gestützte Notizen-App Beispiel](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [Fine-Tuning und Integration benutzerdefinierter Phi-3-Modelle mit Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Fine-Tuning und Integration benutzerdefinierter Phi-3-Modelle mit Prompt flow in Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Bewertung des Fine-Tuned Phi-3 / Phi-3.5 Modells in Azure AI Foundry mit Fokus auf Microsofts Responsible AI Prinzipien](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct Sprachvorhersage-Beispiel (Chinesisch/Englisch)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [WinUI3 Multi Model KI-gestützte Notizen App Beispiel](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [Feinabstimmung und Integration von benutzerdefinierten Phi-3 Modellen mit Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Feinabstimmung und Integration benutzerdefinierter Phi-3 Modelle mit Prompt flow in Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Bewertung des feinabgestimmten Phi-3 / Phi-3.5 Modells in Azure AI Foundry mit Fokus auf Microsofts Responsible AI Prinzipien](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct Sprachvorhersage Beispiel (Chinesisch/Englisch)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - [Phi-3.5-Instruct WebGPU RAG Chatbot](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Verwendung von Windows GPU zur Erstellung einer Prompt flow-Lösung mit Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Verwendung von Windows GPU zur Erstellung einer Prompt flow Lösung mit Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - [Verwendung von Microsoft Phi-3.5 tflite zur Erstellung einer Android-App](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Q&A .NET Beispiel mit lokalem ONNX Phi-3-Modell unter Verwendung von Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Konsolen-Chat .NET App mit Semantic Kernel und Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) + - [Q&A .NET Beispiel mit lokalem ONNX Phi-3 Modell unter Verwendung von Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Konsolenchat .NET App mit Semantic Kernel und Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) - - Azure AI Inference SDK Code-basierte Beispiele + - Azure AI Inference SDK Codebasierte Beispiele - Phi-4 Beispiele 🆕 - - [📓] [Projektcode mit Phi-4-multimodal generieren](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - [📓] [Generiere Projektcode mit Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - Phi-3 / 3.5 Beispiele - - [Erstellen Sie Ihren eigenen Visual Studio Code GitHub Copilot Chat mit Microsoft Phi-3 Familie](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [Erstellen Sie Ihren eigenen Visual Studio Code Chat Copilot Agent mit Phi-3.5 und GitHub-Modellen](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [Erstelle deinen eigenen Visual Studio Code GitHub Copilot Chat mit Microsoft Phi-3 Familie](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [Erstelle deinen eigenen Visual Studio Code Chat Copilot Agent mit Phi-3.5 basierend auf GitHub Modellen](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - Fortgeschrittene Reasoning-Beispiele + - Fortgeschrittene Reasoning Beispiele - Phi-4 Beispiele 🆕 - - [📓] [Phi-4-mini Reasoning Beispiele](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - + - [📓] [Phi-4-mini-reasoning oder Phi-4-reasoning Beispiele](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Feinabstimmung von Phi-4-mini-reasoning mit Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Feinabstimmung von Phi-4-mini-reasoning mit Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning mit GitHub Modellen](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini-Reasoning mit Azure AI Foundry Models](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) - Demos - [Phi-4-mini Demos gehostet auf Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Phi-4-multimodal Demos gehostet auf Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - Vision-Beispiele + - [Phi-4-multimodale Demos gehostet auf Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - Vision Beispiele - Phi-4 Beispiele 🆕 - - [📓] [Verwendung von Phi-4-multimodal zum Lesen von Bildern und Generieren von Code](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - [📓] [Phi-4-multimodal verwenden, um Bilder zu lesen und Code zu generieren](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - Phi-3 / 3.5 Beispiele -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [📓][Phi-3-vision-Bild-Text-zu-Text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - [Phi-3-vision - Visueller Sprachassistent - mit Phi3-Vision und OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision Multi-Frame oder Multi-Image Beispiel](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [📓][Phi-3.5 Vision Multi-Frame- oder Multi-Bild-Beispiel](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - [Phi-3 Vision Lokales ONNX-Modell mit Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - [Menübasierte Phi-3 Vision Lokales ONNX-Modell mit Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - Audio-Beispiele + - Audio Beispiele - Phi-4 Beispiele 🆕 - - [📓] [Extrahieren von Audio-Transkripten mit Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Phi-4-multimodal Audio Beispiel](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Phi-4-multimodal Sprachübersetzung Beispiel](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET-Konsolenanwendung mit Phi-4-multimodal zur Analyse einer Audiodatei und Erstellung eines Transkripts](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - [📓] [Audio-Transkripte mit Phi-4-multimodal extrahieren](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Phi-4-multimodal Audio-Beispiel](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Phi-4-multimodal Sprachübersetzungs-Beispiel](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [.NET Konsolenanwendung, die Phi-4-multimodal Audio verwendet, um eine Audiodatei zu analysieren und ein Transkript zu erstellen](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - MOE-Beispiele + - MOE Beispiele - Phi-3 / 3.5 Beispiele - - [📓] [Phi-3.5 Mixture of Experts Modelle (MoEs) Social Media Beispiel](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) Social Media Beispiel](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - [📓] [Erstellen einer Retrieval-Augmented Generation (RAG) Pipeline mit NVIDIA NIM Phi-3 MOE, Azure AI Search und LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - Beispiele für Funktionsaufrufe + - Function Calling Beispiele - Phi-4 Beispiele 🆕 - - [📓] [Verwendung von Funktionsaufrufen mit Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Verwendung von Funktionsaufrufen zur Erstellung von Multi-Agenten mit Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [Verwendung von Funktionsaufrufen mit Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - Multimodale Mixing-Beispiele + - [📓] [Function Calling mit Phi-4-mini verwenden](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Function Calling nutzen, um Multi-Agenten mit Phi-4-mini zu erstellen](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Function Calling mit Ollama verwenden](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - Multimodale Misch-Beispiele - Phi-4 Beispiele 🆕 - - [📓] [Verwendung von Phi-4-multimodal als Technologiejournalist](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET-Konsolenanwendung mit Phi-4-multimodal zur Analyse von Bildern](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Fine-Tuning Phi Beispiele - - [Fine-Tuning Szenarien](./md/03.FineTuning/FineTuning_Scenarios.md) - - [Fine-Tuning vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Fine-Tuning: Phi-3 wird zum Industrieexperten](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [Fine-Tuning Phi-3 mit AI Toolkit für VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Fine-Tuning Phi-3 mit Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) - - [Fine-Tuning Phi-3 mit Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [Fine-Tuning Phi-3 mit QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [Fine-Tuning Phi-3 mit Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Fine-Tuning Phi-3 mit Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Feinabstimmung mit Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Feinabstimmung mit Microsoft Olive Hands-On Lab](./md/03.FineTuning/olive-lab/readme.md) - - [Feinabstimmung von Phi-3-vision mit Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [Feinabstimmung von Phi-3 mit dem Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) - - [Feinabstimmung von Phi-3-vision (offizielle Unterstützung)](./md/03.FineTuning/FineTuning_Vision.md) - - [Feinabstimmung von Phi-3 mit Kaito AKS, Azure Containers (offizielle Unterstützung)](./md/03.FineTuning/FineTuning_Kaito.md) - - [Feinabstimmung von Phi-3 und 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - -- Hands-On Lab - - [Erkundung modernster Modelle: LLMs, SLMs, lokale Entwicklung und mehr](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [Freischaltung des NLP-Potenzials: Feinabstimmung mit Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) - -- Akademische Forschungsarbeiten und Veröffentlichungen - - [Textbooks Are All You Need II: phi-1.5 technischer Bericht](https://arxiv.org/abs/2309.05463) - - [Phi-3 Technischer Bericht: Ein leistungsfähiges Sprachmodell direkt auf Ihrem Telefon](https://arxiv.org/abs/2404.14219) - - [Phi-4 Technischer Bericht](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini Technischer Bericht: Kompakte, aber leistungsstarke multimodale Sprachmodelle durch Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) - - [Optimierung kleiner Sprachmodelle für Fahrzeuginterne Funktionsaufrufe](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) Feinabstimmung von PHI-3 für Multiple-Choice-Fragen: Methodik, Ergebnisse und Herausforderungen](https://arxiv.org/abs/2501.01588) - -## Verwendung von Phi-Modellen - -### Phi auf Azure AI Foundry - -Sie können lernen, wie Sie Microsoft Phi nutzen und E2E-Lösungen auf Ihren verschiedenen Hardwaregeräten erstellen. Um Phi selbst zu erleben, starten Sie mit den Modellen und passen Sie Phi für Ihre Szenarien an, indem Sie den [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) verwenden. Mehr dazu erfahren Sie unter Erste Schritte mit [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). + - [📓] [Phi-4-multimodal als Technologie-Journalist einsetzen](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET Konsolenanwendung, die Phi-4-multimodal zur Bildanalyse verwendet](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Fine-tuning Phi Beispiele + - [Fine-tuning Szenarien](./md/03.FineTuning/FineTuning_Scenarios.md) + - [Fine-tuning vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [Fine-tuning: Phi-3 zum Branchenexperten machen](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [Fine-tuning Phi-3 mit AI Toolkit für VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Fine-tuning Phi-3 mit Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) +- [Feinabstimmung von Phi-3 mit Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [Feinabstimmung von Phi-3 mit QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [Feinabstimmung von Phi-3 mit Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Feinabstimmung von Phi-3 mit Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Feinabstimmung mit Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Feinabstimmung mit Microsoft Olive Hands-On Lab](./md/03.FineTuning/olive-lab/readme.md) + - [Feinabstimmung von Phi-3-vision mit Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Feinabstimmung von Phi-3 mit Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) + - [Feinabstimmung von Phi-3-vision (offizielle Unterstützung)](./md/03.FineTuning/FineTuning_Vision.md) + - [Feinabstimmung von Phi-3 mit Kaito AKS, Azure Containers (offizielle Unterstützung)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Feinabstimmung von Phi-3 und 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) + +- Hands on Lab + - [Erkunden modernster Modelle: LLMs, SLMs, lokale Entwicklung und mehr](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [NLP-Potenzial freisetzen: Feinabstimmung mit Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) + +- Wissenschaftliche Forschungsarbeiten und Veröffentlichungen + - [Textbooks Are All You Need II: phi-1.5 technischer Bericht](https://arxiv.org/abs/2309.05463) + - [Phi-3 technischer Bericht: Ein leistungsstarkes Sprachmodell lokal auf Ihrem Telefon](https://arxiv.org/abs/2404.14219) + - [Phi-4 technischer Bericht](https://arxiv.org/abs/2412.08905) + - [Phi-4-Mini technischer Bericht: Kompakte, aber leistungsstarke multimodale Sprachmodelle durch Mischung von LoRAs](https://arxiv.org/abs/2503.01743) + - [Optimierung kleiner Sprachmodelle für In-Fahrzeug-Funktionsaufrufe](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) Feinabstimmung von PHI-3 für Multiple-Choice-Fragen: Methodik, Ergebnisse und Herausforderungen](https://arxiv.org/abs/2501.01588) + - [Phi-4-reasoning technischer Bericht](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini-reasoning technischer Bericht](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) + +## Verwendung von Phi-Modellen + +### Phi auf Azure AI Foundry + +Sie können lernen, wie man Microsoft Phi verwendet und wie man E2E-Lösungen auf verschiedenen Hardwaregeräten erstellt. Um Phi selbst zu erleben, beginnen Sie damit, die Modelle auszuprobieren und Phi für Ihre Szenarien mit dem [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) anzupassen. Mehr erfahren Sie unter Erste Schritte mit [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) **Playground** -Jedes Modell hat einen eigenen Playground, um das Modell zu testen [Azure AI Playground](https://aka.ms/try-phi3). +Jedes Modell verfügt über einen eigenen Playground zum Testen des Modells [Azure AI Playground](https://aka.ms/try-phi3). -### Phi auf GitHub Models +### Phi auf GitHub Models -Sie können lernen, wie Sie Microsoft Phi nutzen und E2E-Lösungen auf Ihren verschiedenen Hardwaregeräten erstellen. Um Phi selbst zu erleben, starten Sie mit dem Modell und passen Sie Phi für Ihre Szenarien an, indem Sie den [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) verwenden. Mehr dazu erfahren Sie unter Erste Schritte mit [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md). +Sie können lernen, wie man Microsoft Phi verwendet und wie man E2E-Lösungen auf verschiedenen Hardwaregeräten erstellt. Um Phi selbst zu erleben, beginnen Sie damit, das Modell auszuprobieren und Phi für Ihre Szenarien mit dem [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) anzupassen. Mehr erfahren Sie unter Erste Schritte mit [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) **Playground** -Jedes Modell hat einen eigenen [Playground, um das Modell zu testen](/md/02.QuickStart/GitHubModel_QuickStart.md). +Jedes Modell hat einen eigenen [Playground zum Testen des Modells](/md/02.QuickStart/GitHubModel_QuickStart.md). -### Phi auf Hugging Face +### Phi auf Hugging Face -Sie finden das Modell auch auf [Hugging Face](https://huggingface.co/microsoft). +Das Modell finden Sie auch auf [Hugging Face](https://huggingface.co/microsoft). **Playground** -[Hugging Chat Playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct). +[Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## Verantwortungsbewusste KI +## Verantwortungsvolle KI -Microsoft verpflichtet sich, unseren Kunden zu helfen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erkenntnisse zu teilen und vertrauensbasierte Partnerschaften durch Tools wie Transparenznotizen und Auswirkungenbewertungen aufzubauen. Viele dieser Ressourcen finden Sie unter [https://aka.ms/RAI](https://aka.ms/RAI). -Microsofts Ansatz für verantwortungsbewusste KI basiert auf unseren KI-Prinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusivität, Transparenz und Verantwortlichkeit. +Microsoft verpflichtet sich, unseren Kunden zu helfen, unsere KI-Produkte verantwortungsvoll zu nutzen, unsere Erkenntnisse zu teilen und vertrauensbasierte Partnerschaften durch Tools wie Transparency Notes und Impact Assessments aufzubauen. Viele dieser Ressourcen finden Sie unter [https://aka.ms/RAI](https://aka.ms/RAI). +Der verantwortungsvolle Umgang mit KI bei Microsoft basiert auf unseren KI-Prinzipien: Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusivität, Transparenz und Verantwortlichkeit. +Groß angelegte Modelle für natürliche Sprache, Bilder und Sprache – wie die in diesem Beispiel verwendeten – können sich potenziell unfair, unzuverlässig oder anstößig verhalten und dadurch Schaden verursachen. Bitte konsultieren Sie die [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text), um sich über Risiken und Einschränkungen zu informieren. -Großskalige Modelle für natürliche Sprache, Bilder und Sprache - wie die in diesem Beispiel verwendeten - können sich potenziell auf unfaire, unzuverlässige oder beleidigende Weise verhalten und dadurch Schäden verursachen. Bitte konsultieren Sie die [Transparenznotiz des Azure OpenAI-Dienstes](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text), um über Risiken und Einschränkungen informiert zu sein. +Der empfohlene Ansatz zur Minderung dieser Risiken besteht darin, ein Sicherheitssystem in Ihre Architektur zu integrieren, das schädliches Verhalten erkennen und verhindern kann. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) bietet eine unabhängige Schutzschicht, die schädliche von Nutzern oder KI generierte Inhalte in Anwendungen und Diensten erkennen kann. Azure AI Content Safety umfasst Text- und Bild-APIs, mit denen Sie schädliches Material identifizieren können. Innerhalb von Azure AI Foundry ermöglicht der Content Safety Service das Anzeigen, Erkunden und Ausprobieren von Beispielcode zur Erkennung schädlicher Inhalte in verschiedenen Modalitäten. Die folgende [Quickstart-Dokumentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) führt Sie durch die Anfragen an den Dienst. -Der empfohlene Ansatz zur Minderung dieser Risiken besteht darin, ein Sicherheitssystem in Ihre Architektur einzubinden, das schädliches Verhalten erkennen und verhindern kann. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) bietet eine unabhängige Schutzebene, die in der Lage ist, schädliche Inhalte, die von Benutzern oder KI generiert wurden, in Anwendungen und Diensten zu erkennen. Azure AI Content Safety umfasst Text- und Bild-APIs, die es ermöglichen, schädliches Material zu erkennen. Innerhalb von Azure AI Foundry ermöglicht der Content Safety-Dienst das Anzeigen, Erkunden und Testen von Beispielcode zur Erkennung schädlicher Inhalte über verschiedene Modalitäten hinweg. Die folgende [Schnellstart-Dokumentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) führt Sie durch das Erstellen von Anfragen an den Dienst. +Ein weiterer Aspekt, der berücksichtigt werden sollte, ist die Gesamtleistung der Anwendung. Bei multimodalen und multimodellbasierten Anwendungen verstehen wir unter Leistung, dass das System wie von Ihnen und Ihren Nutzern erwartet funktioniert, einschließlich der Vermeidung schädlicher Ausgaben. Es ist wichtig, die Leistung Ihrer gesamten Anwendung mit [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) zu bewerten. Außerdem haben Sie die Möglichkeit, mit [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) eigene Evaluatoren zu erstellen und zu bewerten. -Ein weiterer zu berücksichtigender Aspekt ist die Gesamtleistung der Anwendung. Bei multimodalen und Multi-Modell-Anwendungen betrachten wir Leistung als die Fähigkeit des Systems, so zu funktionieren, wie Sie und Ihre Benutzer es erwarten, einschließlich der Vermeidung schädlicher Ausgaben. Es ist wichtig, die Leistung Ihrer gesamten Anwendung mit [Evaluatoren für Leistung und Qualität sowie Risiko und Sicherheit](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) zu bewerten. Sie haben auch die Möglichkeit, mit [benutzerdefinierten Evaluatoren](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) zu erstellen und zu bewerten. -Sie können Ihre KI-Anwendung in Ihrer Entwicklungsumgebung mit dem [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) evaluieren. Anhand eines Testdatensatzes oder eines Ziels werden die generierten Ergebnisse Ihrer generativen KI-Anwendung quantitativ mit integrierten oder benutzerdefinierten Evaluatoren Ihrer Wahl gemessen. Um mit dem Azure AI Evaluation SDK zu beginnen und Ihr System zu evaluieren, können Sie der [Schnellstartanleitung](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) folgen. Nach der Durchführung eines Evaluationslaufs können Sie [die Ergebnisse in Azure AI Foundry visualisieren](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). +Sie können Ihre KI-Anwendung in Ihrer Entwicklungsumgebung mit dem [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) evaluieren. Anhand eines Testdatensatzes oder eines Ziels werden die Generierungen Ihrer generativen KI-Anwendung quantitativ mit eingebauten oder selbst definierten Evaluatoren gemessen. Um mit dem Azure AI Evaluation SDK zu starten und Ihr System zu bewerten, können Sie der [Quickstart-Anleitung](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) folgen. Nach Durchführung eines Evaluierungslaufs können Sie die Ergebnisse in [Azure AI Foundry visualisieren](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). ## Marken -Dieses Projekt kann Marken oder Logos für Projekte, Produkte oder Dienstleistungen enthalten. Die autorisierte Nutzung von Microsoft-Marken oder -Logos unterliegt den [Marken- und Markenrichtlinien von Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) und muss diesen folgen. Die Verwendung von Microsoft-Marken oder -Logos in modifizierten Versionen dieses Projekts darf keine Verwirrung stiften oder eine Unterstützung durch Microsoft implizieren. Jede Nutzung von Marken oder Logos Dritter unterliegt den Richtlinien der jeweiligen Drittpartei. +Dieses Projekt kann Marken oder Logos von Projekten, Produkten oder Dienstleistungen enthalten. Die autorisierte Nutzung von Microsoft-Marken oder -Logos unterliegt den [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) und muss diesen folgen. Die Verwendung von Microsoft-Marken oder -Logos in modifizierten Versionen dieses Projekts darf nicht zu Verwechslungen führen oder eine Microsoft-Unterstützung suggerieren. Die Nutzung von Marken oder Logos Dritter unterliegt den jeweiligen Richtlinien dieser Dritten. **Haftungsausschluss**: -Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir uns um Genauigkeit bemühen, beachten Sie bitte, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache sollte als maßgebliche Quelle betrachtet werden. Für wichtige Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir haften nicht für Missverständnisse oder Fehlinterpretationen, die sich aus der Nutzung dieser Übersetzung ergeben. \ No newline at end of file +Dieses Dokument wurde mit dem KI-Übersetzungsdienst [Co-op Translator](https://github.com/Azure/co-op-translator) übersetzt. Obwohl wir auf Genauigkeit achten, bitten wir zu beachten, dass automatisierte Übersetzungen Fehler oder Ungenauigkeiten enthalten können. Das Originaldokument in seiner ursprünglichen Sprache ist als maßgebliche Quelle zu betrachten. Für wichtige Informationen wird eine professionelle menschliche Übersetzung empfohlen. Wir übernehmen keine Haftung für Missverständnisse oder Fehlinterpretationen, die aus der Nutzung dieser Übersetzung entstehen. \ No newline at end of file diff --git a/translations/es/README.md b/translations/es/README.md index 5e9986c9..6c4c0d93 100644 --- a/translations/es/README.md +++ b/translations/es/README.md @@ -1,233 +1,239 @@ # Phi Cookbook: Ejemplos Prácticos con los Modelos Phi de Microsoft -[![Abrir y usar los ejemplos en GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) -[![Abrir en Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) +[![Open and use the samples in GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Open in Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -[![Contribuidores en GitHub](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) -[![Problemas en GitHub](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) -[![Solicitudes de extracción en GitHub](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) -[![PRs Bienvenidos](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub contributors](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub issues](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub pull-requests](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -[![Seguidores en GitHub](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) -[![Forks en GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -[![Estrellas en GitHub](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub watchers](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub stars](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) [![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -Phi es una serie de modelos de inteligencia artificial de código abierto desarrollados por Microsoft. +Phi es una serie de modelos de IA de código abierto desarrollados por Microsoft. -Actualmente, Phi es el modelo de lenguaje pequeño (SLM) más potente y rentable, con excelentes resultados en pruebas de multilingüismo, razonamiento, generación de texto/chat, programación, imágenes, audio y otros escenarios. +Actualmente, Phi es el modelo de lenguaje pequeño (SLM) más potente y rentable, con muy buenos resultados en múltiples idiomas, razonamiento, generación de texto/chat, programación, imágenes, audio y otros escenarios. -Puedes implementar Phi en la nube o en dispositivos de borde, y construir aplicaciones de IA generativa fácilmente con recursos computacionales limitados. +Puedes desplegar Phi en la nube o en dispositivos edge, y es muy sencillo crear aplicaciones de IA generativa con recursos de cómputo limitados. -Sigue estos pasos para comenzar a usar estos recursos: -1. **Haz un Fork del Repositorio**: Haz clic en [![Forks en GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **Clona el Repositorio**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Únete a la Comunidad de Microsoft AI en Discord y conecta con expertos y otros desarrolladores**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +Sigue estos pasos para comenzar a usar estos recursos: +1. **Haz un Fork del Repositorio**: Haz clic en [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **Clona el Repositorio**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**Únete a la Comunidad de Microsoft AI en Discord y conoce expertos y otros desarrolladores**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.es.png) ## 🌐 Soporte Multilingüe -[Francés](../fr/README.md) | [Español](./README.md) | [Alemán](../de/README.md) | [Ruso](../ru/README.md) | [Árabe](../ar/README.md) | [Persa (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chino (Simplificado)](../zh/README.md) | [Chino (Tradicional, Macao)](../mo/README.md) | [Chino (Tradicional, Hong Kong)](../hk/README.md) | [Chino (Tradicional, Taiwán)](../tw/README.md) | [Japonés](../ja/README.md) | [Coreano](../ko/README.md) | [Hindi](../hi/README.md) | [Bengalí](../bn/README.md) | [Maratí](../mr/README.md) | [Nepalí](../ne/README.md) | [Punyabí (Gurmukhi)](../pa/README.md) | [Portugués (Portugal)](../pt/README.md) | [Portugués (Brasil)](../br/README.md) | [Italiano](../it/README.md) | [Polaco](../pl/README.md) | [Turco](../tr/README.md) | [Griego](../el/README.md) | [Tailandés](../th/README.md) | [Sueco](../sv/README.md) | [Danés](../da/README.md) | [Noruego](../no/README.md) | [Finlandés](../fi/README.md) | [Holandés](../nl/README.md) | [Hebreo](../he/README.md) | [Vietnamita](../vi/README.md) | [Indonesio](../id/README.md) | [Malayo](../ms/README.md) | [Tagalo (Filipino)](../tl/README.md) | [Suajili](../sw/README.md) | [Húngaro](../hu/README.md) | [Checo](../cs/README.md) | [Eslovaco](../sk/README.md) | [Rumano](../ro/README.md) | [Búlgaro](../bg/README.md) | [Serbio (Cirílico)](../sr/README.md) | [Croata](../hr/README.md) | [Esloveno](../sl/README.md) +[Francés](../fr/README.md) | [Español](./README.md) | [Alemán](../de/README.md) | [Ruso](../ru/README.md) | [Árabe](../ar/README.md) | [Persa (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chino (Simplificado)](../zh/README.md) | [Chino (Tradicional, Macao)](../mo/README.md) | [Chino (Tradicional, Hong Kong)](../hk/README.md) | [Chino (Tradicional, Taiwán)](../tw/README.md) | [Japonés](../ja/README.md) | [Coreano](../ko/README.md) | [Hindi](../hi/README.md) [Bengalí](../bn/README.md) | [Maratí](../mr/README.md) | [Nepalí](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portugués (Portugal)](../pt/README.md) | [Portugués (Brasil)](../br/README.md) | [Italiano](../it/README.md) | [Polaco](../pl/README.md) | [Turco](../tr/README.md) | [Griego](../el/README.md) | [Tailandés](../th/README.md) | [Sueco](../sv/README.md) | [Danés](../da/README.md) | [Noruego](../no/README.md) | [Finlandés](../fi/README.md) | [Holandés](../nl/README.md) | [Hebreo](../he/README.md) | [Vietnamita](../vi/README.md) | [Indonesio](../id/README.md) | [Malayo](../ms/README.md) | [Tagalo (Filipino)](../tl/README.md) | [Swahili](../sw/README.md) | [Húngaro](../hu/README.md) | [Checo](../cs/README.md) | [Eslovaco](../sk/README.md) | [Rumano](../ro/README.md) | [Búlgaro](../bg/README.md) | [Serbio (Cirílico)](../sr/README.md) | [Croata](../hr/README.md) | [Esloveno](../sl/README.md) Por favor escriba la salida de izquierda a derecha. + +[Francés](../fr/README.md) | [Español](./README.md) | [Alemán](../de/README.md) | [Ruso](../ru/README.md) | [Árabe](../ar/README.md) | [Persa (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chino (Simplificado)](../zh/README.md) | [Chino (Tradicional, Macao)](../mo/README.md) | [Chino (Tradicional, Hong Kong)](../hk/README.md) | [Chino (Tradicional, Taiwán)](../tw/README.md) | [Japonés](../ja/README.md) | [Coreano](../ko/README.md) | [Hindi](../hi/README.md) [Bengalí](../bn/README.md) | [Maratí](../mr/README.md) | [Nepalí](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portugués (Portugal)](../pt/README.md) | [Portugués (Brasil)](../br/README.md) | [Italiano](../it/README.md) | [Polaco](../pl/README.md) | [Turco](../tr/README.md) | [Griego](../el/README.md) | [Tailandés](../th/README.md) | [Sueco](../sv/README.md) | [Danés](../da/README.md) | [Noruego](../no/README.md) | [Finlandés](../fi/README.md) | [Holandés](../nl/README.md) | [Hebreo](../he/README.md) | [Vietnamita](../vi/README.md) | [Indonesio](../id/README.md) | [Malayo](../ms/README.md) | [Tagalo (Filipino)](../tl/README.md) | [Swahili](../sw/README.md) | [Húngaro](../hu/README.md) | [Checo](../cs/README.md) | [Eslovaco](../sk/README.md) | [Rumano](../ro/README.md) | [Búlgaro](../bg/README.md) | [Serbio (Cirílico)](../sr/README.md) | [Croata](../hr/README.md) | [Esloveno](../sl/README.md) ## Tabla de Contenidos -- Introducción - - [Bienvenido a la Familia Phi](./md/01.Introduction/01/01.PhiFamily.md) - - [Configurando tu entorno](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [Entendiendo las Tecnologías Clave](./md/01.Introduction/01/01.Understandingtech.md) - - [Seguridad de IA para Modelos Phi](./md/01.Introduction/01/01.AISafety.md) - - [Soporte de Hardware para Phi](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Modelos Phi y Disponibilidad en diferentes plataformas](./md/01.Introduction/01/01.Edgeandcloud.md) - - [Usando Guidance-ai y Phi](./md/01.Introduction/01/01.Guidance.md) - - [Modelos en GitHub Marketplace](https://github.com/marketplace/models) - - [Catálogo de Modelos de Azure AI](https://ai.azure.com) - -- Inferencia de Phi en diferentes entornos - - [Hugging Face](./md/01.Introduction/02/01.HF.md) - - [Modelos de GitHub](./md/01.Introduction/02/02.GitHubModel.md) - - [Catálogo de Modelos de Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- Inferencia de la Familia Phi - - [Inferencia de Phi en iOS](./md/01.Introduction/03/iOS_Inference.md) - - [Inferencia de Phi en Android](./md/01.Introduction/03/Android_Inference.md) - - [Inferencia de Phi en Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [Inferencia de Phi en AI PC](./md/01.Introduction/03/AIPC_Inference.md) - - [Inferencia de Phi con el Framework Apple MLX](./md/01.Introduction/03/MLX_Inference.md) - - [Inferencia de Phi en un Servidor Local](./md/01.Introduction/03/Local_Server_Inference.md) - - [Inferencia de Phi en un Servidor Remoto usando AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) - - [Inferencia de Phi con Rust](./md/01.Introduction/03/Rust_Inference.md) - - [Inferencia de Phi--Vision en Local](./md/01.Introduction/03/Vision_Inference.md) - - [Inferencia de Phi con Kaito AKS, Contenedores de Azure (soporte oficial)](./md/01.Introduction/03/Kaito_Inference.md) -- [Cuantificación de la Familia Phi](./md/01.Introduction/04/QuantifyingPhi.md) - - [Cuantificación de Phi-3.5 / 4 usando llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [Cuantificación de Phi-3.5 / 4 usando extensiones de Generative AI para onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [Cuantificación de Phi-3.5 / 4 usando Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Cuantificación de Phi-3.5 / 4 usando el Framework Apple MLX](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- Evaluación de Phi -- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry para Evaluación](./md/01.Introduction/05/AIFoundry.md) - - [Usando Promptflow para Evaluación](./md/01.Introduction/05/Promptflow.md) - -- RAG con Azure AI Search - - [Cómo usar Phi-4-mini y Phi-4-multimodal (RAG) con Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - -- Ejemplos de desarrollo de aplicaciones Phi - - Aplicaciones de Texto y Chat - - Ejemplos Phi-4 🆕 - - [📓] [Chat con el modelo Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Chat con el modelo local Phi-4 ONNX en .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Aplicación de consola .NET con Phi-4 ONNX usando Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - - Ejemplos Phi-3 / 3.5 - - [Chatbot local en el navegador usando Phi3, ONNX Runtime Web y WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [Chat con OpenVino](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [Modelo múltiple - Phi-3-mini interactivo y OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - Creando un wrapper y usando Phi-3 con MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [Optimización de modelos - Cómo optimizar el modelo Phi-3-min para ONNX Runtime Web con Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [Aplicación WinUI3 con Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [Aplicación de notas con IA de modelo múltiple en WinUI3](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [Ajuste fino e integración de modelos personalizados Phi-3 con Promptflow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Ajuste fino e integración de modelos personalizados Phi-3 con Promptflow en Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Evaluar el modelo ajustado Phi-3 / Phi-3.5 en Azure AI Foundry centrado en los principios de IA responsable de Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Ejemplo de predicción de lenguaje con Phi-3.5-mini-instruct (Chino/Inglés)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Chatbot RAG WebGPU con Phi-3.5-Instruct](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Usando GPU de Windows para crear una solución Promptflow con Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [Usando Microsoft Phi-3.5 tflite para crear una aplicación Android](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Ejemplo de preguntas y respuestas en .NET usando el modelo local Phi-3 ONNX con Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Aplicación de consola .NET con Semantic Kernel y Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Ejemplos basados en código del SDK de inferencia de Azure AI - - Ejemplos Phi-4 🆕 - - [📓] [Generar código de proyecto usando Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - - Ejemplos Phi-3 / 3.5 - - [Construye tu propio chat de GitHub Copilot en Visual Studio Code con la familia Phi-3 de Microsoft](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [Crea tu propio agente de chat Copilot en Visual Studio Code con Phi-3.5 usando modelos de GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - - Ejemplos de razonamiento avanzado - - Ejemplos Phi-4 🆕 - - [📓] [Ejemplos de razonamiento con Phi-4-mini](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - Demos - - [Demos de Phi-4-mini alojados en Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Demos de Phi-4-multimodal alojados en Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - - Ejemplos de visión - - Ejemplos Phi-4 🆕 - - [📓] [Usar Phi-4-multimodal para leer imágenes y generar código](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Ejemplos Phi-3 / 3.5 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) +- Introducción + - [Bienvenido a la Familia Phi](./md/01.Introduction/01/01.PhiFamily.md) + - [Configurando tu entorno](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [Entendiendo las Tecnologías Clave](./md/01.Introduction/01/01.Understandingtech.md) + - [Seguridad de IA para modelos Phi](./md/01.Introduction/01/01.AISafety.md) + - [Soporte de hardware Phi](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Modelos Phi y disponibilidad en plataformas](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Usando Guidance-ai y Phi](./md/01.Introduction/01/01.Guidance.md) + - [GitHub Marketplace Models](https://github.com/marketplace/models) + - [Azure AI Model Catalog](https://ai.azure.com) + +- Inferencia Phi en diferentes entornos + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub Models](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry Model Catalog](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Inferencia Phi Family + - [Inferencia Phi en iOS](./md/01.Introduction/03/iOS_Inference.md) + - [Inferencia Phi en Android](./md/01.Introduction/03/Android_Inference.md) + - [Inferencia Phi en Jetson](./md/01.Introduction/03/Jetson_Inference.md) + - [Inferencia Phi en AI PC](./md/01.Introduction/03/AIPC_Inference.md) + - [Inferencia Phi con Apple MLX Framework](./md/01.Introduction/03/MLX_Inference.md) + - [Inferencia Phi en Servidor Local](./md/01.Introduction/03/Local_Server_Inference.md) + - [Inferencia Phi en Servidor Remoto usando AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) + - [Inferencia Phi con Rust](./md/01.Introduction/03/Rust_Inference.md) + - [Inferencia Phi--Vision en Local](./md/01.Introduction/03/Vision_Inference.md) + - [Inferencia Phi con Kaito AKS, Azure Containers (soporte oficial)](./md/01.Introduction/03/Kaito_Inference.md) +- [Cuantificación de Phi Family](./md/01.Introduction/04/QuantifyingPhi.md) + - [Cuantizando Phi-3.5 / 4 usando llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [Cuantizando Phi-3.5 / 4 usando extensiones Generative AI para onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Cuantizando Phi-3.5 / 4 usando Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Cuantizando Phi-3.5 / 4 usando Apple MLX Framework](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Evaluación Phi +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry para Evaluación](./md/01.Introduction/05/AIFoundry.md) + - [Uso de Promptflow para Evaluación](./md/01.Introduction/05/Promptflow.md) + +- RAG con Azure AI Search + - [Cómo usar Phi-4-mini y Phi-4-multimodal(RAG) con Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + +- Ejemplos de desarrollo de aplicaciones Phi + - Aplicaciones de Texto y Chat + - Ejemplos Phi-4 🆕 + - [📓] [Chat con el modelo Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [Chat con modelo local Phi-4 ONNX en .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Aplicación de consola Chat .NET con Phi-4 ONNX usando Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - Ejemplos Phi-3 / 3.5 + - [Chatbot local en el navegador usando Phi3, ONNX Runtime Web y WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [Chat OpenVino](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [Modelo múltiple - Phi-3-mini interactivo y OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - Creando un wrapper y usando Phi-3 con MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [Optimización de modelo - Cómo optimizar el modelo Phi-3-mini para ONNX Runtime Web con Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [App WinUI3 con Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + - [Ejemplo de aplicación de notas con IA múltiple en WinUI3](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [Ajuste fino e integración de modelos Phi-3 personalizados con Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Ajuste fino e integración de modelos Phi-3 personalizados con Prompt flow en Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Evaluar el modelo Fine-tuned Phi-3 / Phi-3.5 en Azure AI Foundry enfocado en los principios de Responsible AI de Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Ejemplo de predicción de lenguaje Phi-3.5-mini-instruct (Chino/Inglés)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Chatbot RAG Phi-3.5-Instruct WebGPU](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [Uso de GPU de Windows para crear solución Prompt flow con Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Uso de Microsoft Phi-3.5 tflite para crear app Android](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Ejemplo Q&A .NET usando modelo local ONNX Phi-3 con Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [App consola chat .NET con Semantic Kernel y Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Ejemplos basados en código con Azure AI Inference SDK + - Ejemplos Phi-4 🆕 + - [📓] [Generar código de proyecto usando Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - Ejemplos Phi-3 / 3.5 + - [Crea tu propio chat GitHub Copilot para Visual Studio Code con Microsoft Phi-3 Family](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [Crea tu propio agente Chat Copilot para Visual Studio Code con Phi-3.5 usando modelos de GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + + - Ejemplos de razonamiento avanzado + - Ejemplos Phi-4 🆕 + - [📓] [Ejemplos de Phi-4-mini-reasoning o Phi-4-reasoning](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Ajuste fino de Phi-4-mini-reasoning con Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Ajuste fino de Phi-4-mini-reasoning con Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning con modelos de GitHub](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini razonamiento con modelos Azure AI Foundry](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - Demostraciones + - [Phi-4-mini demos alojados en Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-multimodal demos alojados en Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - Muestras de Visión + - Muestras Phi-4 🆕 + - [📓] [Usar Phi-4-multimodal para leer imágenes y generar código](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Muestras Phi-3 / 3.5 + - [📓][Phi-3-vision-Texto de imagen a texto](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [DEMO: Phi-3 Reciclaje](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - Asistente visual de lenguaje - con Phi3-Vision y OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3-vision - Asistente de lenguaje visual - con Phi3-Vision y OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision muestra de múltiples cuadros o imágenes](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision Modelo ONNX Local utilizando Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [Modelo ONNX Local Phi-3 Vision basado en menú utilizando Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + - [📓][Phi-3.5 Vision muestra multi-cuadro o multi-imagen](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Modelo ONNX local Phi-3 Vision usando Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [Modelo ONNX local Phi-3 Vision basado en menú usando Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - Muestras de Audio - Muestras Phi-4 🆕 - - [📓] [Extracción de transcripciones de audio utilizando Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Muestra de audio Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Muestra de traducción de voz Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [Aplicación de consola .NET utilizando Phi-4-multimodal para analizar un archivo de audio y generar transcripción](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - [📓] [Extrayendo transcripciones de audio usando Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Muestra de Audio Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Muestra de Traducción de voz Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [Aplicación de consola .NET usando Phi-4-multimodal Audio para analizar un archivo de audio y generar transcripción](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - Muestras MOE - Muestras Phi-3 / 3.5 - - [📓] [Modelos Mixture of Experts (MoEs) Phi-3.5 muestra de redes sociales](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [Construcción de un pipeline de generación aumentada por recuperación (RAG) con NVIDIA NIM Phi-3 MOE, Azure AI Search y LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - [📓] [Modelos Mixture of Experts (MoEs) Phi-3.5 para redes sociales](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [Construyendo un pipeline de Generación Aumentada por Recuperación (RAG) con NVIDIA NIM Phi-3 MOE, Azure AI Search y LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - Muestras de Llamadas a Funciones - Muestras Phi-4 🆕 - - [📓] [Uso de llamadas a funciones con Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Uso de llamadas a funciones para crear múltiples agentes con Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [Uso de llamadas a funciones con Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - Muestras de Mezcla Multimodal + - [📓] [Usando llamadas a funciones con Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Usando llamadas a funciones para crear multi-agentes con Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Usando llamadas a funciones con Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - Muestras de mezcla multimodal - Muestras Phi-4 🆕 - - [📓] [Uso de Phi-4-multimodal como periodista tecnológico](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [Aplicación de consola .NET utilizando Phi-4-multimodal para analizar imágenes](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Ajuste fino de muestras Phi - - [Escenarios de ajuste fino](./md/03.FineTuning/FineTuning_Scenarios.md) - - [Ajuste fino vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Ajuste fino Deja que Phi-3 se convierta en un experto en la industria](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [Ajuste fino Phi-3 con AI Toolkit para VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Ajuste fino Phi-3 con el servicio Azure Machine Learning](./md/03.FineTuning/Introduce_AzureML.md) - - [Ajuste fino Phi-3 con Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [Ajuste fino Phi-3 con QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [Ajuste fino Phi-3 con Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Ajuste fino Phi-3 con CLI/SDK de Azure ML](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Ajuste fino con Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Laboratorio práctico de ajuste fino con Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) - - [Ajuste fino de Phi-3-vision con Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [Ajuste fino de Phi-3 con el framework Apple MLX](./md/03.FineTuning/FineTuning_MLX.md) - - [Ajuste fino de Phi-3-vision (soporte oficial)](./md/03.FineTuning/FineTuning_Vision.md) - - [Ajuste fino de Phi-3 con Kaito AKS, contenedores de Azure (soporte oficial)](./md/03.FineTuning/FineTuning_Kaito.md) - - [Ajuste fino de Phi-3 y Phi-3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - -- Laboratorio práctico - - [Explorando modelos de vanguardia: LLMs, SLMs, desarrollo local y más](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [Liberando el potencial del NLP: Ajuste fino con Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) - -- Artículos de investigación académica y publicaciones - - [Textbooks Are All You Need II: informe técnico de phi-1.5](https://arxiv.org/abs/2309.05463) - - [Informe técnico de Phi-3: un modelo de lenguaje altamente capaz en tu teléfono](https://arxiv.org/abs/2404.14219) - - [Informe técnico de Phi-4](https://arxiv.org/abs/2412.08905) - - [Informe técnico de Phi-4-Mini: Modelos de lenguaje multimodal compactos pero potentes mediante Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) - - [Optimización de modelos de lenguaje pequeños para llamadas de funciones en vehículos](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) Ajuste fino de PHI-3 para responder preguntas de opción múltiple: metodología, resultados y desafíos](https://arxiv.org/abs/2501.01588) - -## Uso de modelos Phi - -### Phi en Azure AI Foundry - -Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de extremo a extremo en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando los modelos y personalizando Phi para tus escenarios usando el [Catálogo de Modelos de Azure AI Foundry](https://aka.ms/phi3-azure-ai). Puedes aprender más en Introducción a [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). + - [📓] [Usando Phi-4-multimodal como periodista tecnológico](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [Aplicación de consola .NET usando Phi-4-multimodal para analizar imágenes](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Fine-tuning Phi Samples + - [Escenarios de fine-tuning](./md/03.FineTuning/FineTuning_Scenarios.md) + - [Fine-tuning vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [Fine-tuning: Deja que Phi-3 se convierta en un experto de la industria](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [Fine-tuning Phi-3 con AI Toolkit para VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Fine-tuning Phi-3 con Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) +- [Ajuste fino de Phi-3 con Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [Ajuste fino de Phi-3 con QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [Ajuste fino de Phi-3 con Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Ajuste fino de Phi-3 con Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Ajuste fino con Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Laboratorio práctico de ajuste fino con Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) + - [Ajuste fino de Phi-3-vision con Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Ajuste fino de Phi-3 con Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) + - [Ajuste fino de Phi-3-vision (soporte oficial)](./md/03.FineTuning/FineTuning_Vision.md) + - [Ajuste fino de Phi-3 con Kaito AKS, Azure Containers (soporte oficial)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Ajuste fino de Phi-3 y 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) + +- Laboratorio práctico + - [Explorando modelos de vanguardia: LLMs, SLMs, desarrollo local y más](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [Desbloqueando el potencial de NLP: ajuste fino con Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) + +- Artículos de investigación académica y publicaciones + - [Textbooks Are All You Need II: informe técnico de phi-1.5](https://arxiv.org/abs/2309.05463) + - [Informe técnico de Phi-3: un modelo de lenguaje altamente capaz localmente en tu teléfono](https://arxiv.org/abs/2404.14219) + - [Informe técnico de Phi-4](https://arxiv.org/abs/2412.08905) + - [Informe técnico de Phi-4-Mini: modelos de lenguaje multimodales compactos pero potentes mediante mezcla de LoRAs](https://arxiv.org/abs/2503.01743) + - [Optimización de modelos de lenguaje pequeños para llamadas a funciones en vehículos](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) Ajuste fino de PHI-3 para respuestas a preguntas de opción múltiple: metodología, resultados y desafíos](https://arxiv.org/abs/2501.01588) + - [Informe técnico de razonamiento Phi-4](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Informe técnico de razonamiento Phi-4-mini](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) + +## Uso de modelos Phi + +### Phi en Azure AI Foundry + +Puedes aprender a usar Microsoft Phi y cómo construir soluciones E2E en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando los modelos y personalizando Phi para tus escenarios usando el [Catálogo de modelos Azure AI Foundry](https://aka.ms/phi3-azure-ai). Puedes obtener más información en Comenzando con [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) **Playground** -Cada modelo tiene un playground dedicado para probar el modelo [Azure AI Playground](https://aka.ms/try-phi3). +Cada modelo tiene un playground dedicado para probarlo en [Azure AI Playground](https://aka.ms/try-phi3). -### Phi en Modelos de GitHub +### Phi en modelos de GitHub -Puedes aprender cómo usar Microsoft Phi y cómo construir soluciones de extremo a extremo en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando el modelo y personalizando Phi para tus escenarios usando el [Catálogo de Modelos de GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Puedes aprender más en Introducción al [Catálogo de Modelos de GitHub](/md/02.QuickStart/GitHubModel_QuickStart.md). +Puedes aprender a usar Microsoft Phi y cómo construir soluciones E2E en tus diferentes dispositivos de hardware. Para experimentar Phi por ti mismo, comienza probando el modelo y personalizando Phi para tus escenarios usando el [Catálogo de modelos de GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Puedes obtener más información en Comenzando con [Catálogo de modelos de GitHub](/md/02.QuickStart/GitHubModel_QuickStart.md) **Playground** -Cada modelo tiene un [playground dedicado para probar el modelo](/md/02.QuickStart/GitHubModel_QuickStart.md). +Cada modelo tiene un [playground dedicado para probarlo](/md/02.QuickStart/GitHubModel_QuickStart.md). -### Phi en Hugging Face +### Phi en Hugging Face -También puedes encontrar el modelo en [Hugging Face](https://huggingface.co/microsoft). +También puedes encontrar el modelo en [Hugging Face](https://huggingface.co/microsoft) **Playground** -[Playground de Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct). +[Playground de Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## IA Responsable +## IA Responsable -Microsoft está comprometido a ayudar a nuestros clientes a usar nuestros productos de IA de manera responsable, compartiendo lo que hemos aprendido y construyendo asociaciones basadas en la confianza mediante herramientas como Notas de Transparencia y Evaluaciones de Impacto. Muchos de estos recursos se encuentran en [https://aka.ms/RAI](https://aka.ms/RAI). -El enfoque de Microsoft hacia la IA responsable se basa en nuestros principios de IA: equidad, confiabilidad y seguridad, privacidad y protección, inclusión, transparencia y responsabilidad. +Microsoft está comprometido a ayudar a nuestros clientes a usar nuestros productos de IA de manera responsable, compartiendo nuestras experiencias y construyendo alianzas basadas en la confianza mediante herramientas como Transparency Notes e Impact Assessments. Muchos de estos recursos se pueden encontrar en [https://aka.ms/RAI](https://aka.ms/RAI). +El enfoque de Microsoft hacia la IA responsable se basa en nuestros principios de IA: equidad, confiabilidad y seguridad, privacidad y protección, inclusión, transparencia y responsabilidad. +Los modelos a gran escala de lenguaje natural, imagen y voz, como los utilizados en este ejemplo, pueden comportarse de maneras que resulten injustas, poco fiables u ofensivas, causando daños. Por favor, consulta la [nota de transparencia del servicio Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) para informarte sobre los riesgos y limitaciones. -Los modelos a gran escala de lenguaje natural, imágenes y voz, como los utilizados en este ejemplo, pueden comportarse de manera injusta, poco confiable o ofensiva, causando daños. Consulta la [Nota de Transparencia del servicio Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) para estar informado sobre riesgos y limitaciones. +El enfoque recomendado para mitigar estos riesgos es incluir un sistema de seguridad en tu arquitectura que pueda detectar y prevenir comportamientos dañinos. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) ofrece una capa independiente de protección, capaz de detectar contenido dañino generado por usuarios y por IA en aplicaciones y servicios. Azure AI Content Safety incluye APIs de texto e imagen que permiten detectar material perjudicial. Dentro de Azure AI Foundry, el servicio Content Safety te permite ver, explorar y probar código de ejemplo para detectar contenido dañino en diferentes modalidades. La siguiente [documentación de inicio rápido](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) te guía para realizar solicitudes al servicio. -El enfoque recomendado para mitigar estos riesgos es incluir un sistema de seguridad en tu arquitectura que pueda detectar y prevenir comportamientos dañinos. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) proporciona una capa de protección independiente, capaz de detectar contenido dañino generado por usuarios y por IA en aplicaciones y servicios. Azure AI Content Safety incluye APIs de texto e imagen que permiten detectar material dañino. Dentro de Azure AI Foundry, el servicio Content Safety te permite ver, explorar y probar código de ejemplo para detectar contenido dañino en diferentes modalidades. La siguiente [documentación de inicio rápido](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) te guía a través de cómo realizar solicitudes al servicio. +Otro aspecto a tener en cuenta es el rendimiento general de la aplicación. En aplicaciones multimodales y multimodelos, consideramos que el rendimiento significa que el sistema funciona como tú y tus usuarios esperan, incluyendo no generar resultados dañinos. Es importante evaluar el rendimiento de tu aplicación en general utilizando los [evaluadores de Rendimiento y Calidad y de Riesgo y Seguridad](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). También tienes la capacidad de crear y evaluar con [evaluadores personalizados](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Otro aspecto a tener en cuenta es el rendimiento general de la aplicación. Con aplicaciones multimodales y multimodelos, consideramos el rendimiento como la capacidad del sistema de cumplir con las expectativas tuyas y de tus usuarios, incluyendo no generar resultados dañinos. Es importante evaluar el rendimiento de tu aplicación general usando [Evaluadores de Rendimiento y Calidad y Evaluadores de Riesgo y Seguridad](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). También tienes la capacidad de crear y evaluar con [evaluadores personalizados](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Puedes evaluar tu aplicación de inteligencia artificial en tu entorno de desarrollo utilizando el [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). Dado un conjunto de datos de prueba o un objetivo, las generaciones de tu aplicación de inteligencia artificial generativa se miden cuantitativamente con evaluadores integrados o evaluadores personalizados de tu elección. Para comenzar con el SDK de evaluación de Azure AI y evaluar tu sistema, puedes seguir la [guía de inicio rápido](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). Una vez que ejecutes una evaluación, puedes [visualizar los resultados en Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). +Puedes evaluar tu aplicación de IA en tu entorno de desarrollo usando el [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). Dado un conjunto de datos de prueba o un objetivo, las generaciones de tu aplicación generativa de IA se miden cuantitativamente con evaluadores integrados o evaluadores personalizados que elijas. Para comenzar con el azure ai evaluation sdk y evaluar tu sistema, puedes seguir la [guía de inicio rápido](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). Una vez que ejecutes una evaluación, puedes [visualizar los resultados en Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). ## Marcas Registradas -Este proyecto puede contener marcas registradas o logotipos de proyectos, productos o servicios. El uso autorizado de marcas registradas o logotipos de Microsoft está sujeto a y debe cumplir con las [Directrices de Marca y Logotipo de Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). -El uso de marcas registradas o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio por parte de Microsoft. Cualquier uso de marcas registradas o logotipos de terceros está sujeto a las políticas de esos terceros. +Este proyecto puede contener marcas registradas o logotipos de proyectos, productos o servicios. El uso autorizado de las marcas o logotipos de Microsoft está sujeto a y debe seguir las [Directrices de Marcas y Marca Comercial de Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). +El uso de marcas o logotipos de Microsoft en versiones modificadas de este proyecto no debe causar confusión ni implicar patrocinio de Microsoft. Cualquier uso de marcas o logotipos de terceros está sujeto a las políticas de esos terceros. **Descargo de responsabilidad**: -Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por un humano. No nos hacemos responsables de ningún malentendido o interpretación errónea que surja del uso de esta traducción. \ No newline at end of file +Este documento ha sido traducido utilizando el servicio de traducción automática [Co-op Translator](https://github.com/Azure/co-op-translator). Aunque nos esforzamos por la precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o inexactitudes. El documento original en su idioma nativo debe considerarse la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables por malentendidos o interpretaciones erróneas derivadas del uso de esta traducción. \ No newline at end of file diff --git a/translations/fa/README.md b/translations/fa/README.md index 681ea59e..12104b6e 100644 --- a/translations/fa/README.md +++ b/translations/fa/README.md @@ -1,220 +1,238 @@ -# کتاب آشپزی فی: مثال‌های عملی با مدل‌های فی مایکروسافت +# کتاب آشپزی Phi: مثال‌های عملی با مدل‌های Phi مایکروسافت -فی مجموعه‌ای از مدل‌های هوش مصنوعی متن‌باز است که توسط مایکروسافت توسعه یافته‌اند. +[![باز کردن و استفاده از نمونه‌ها در GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![باز کردن در Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -فی در حال حاضر قدرتمندترین و مقرون‌به‌صرفه‌ترین مدل زبان کوچک (SLM) است که در معیارهای چندزبانه، استدلال، تولید متن/چت، کدنویسی، تصاویر، صوت و سایر سناریوها عملکرد بسیار خوبی دارد. +[![مشارکت‌کنندگان GitHub](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![مسائل GitHub](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![درخواست‌های Pull GitHub](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![درخواست‌های PR خوش‌آمدید](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -شما می‌توانید فی را در فضای ابری یا دستگاه‌های لبه‌ای مستقر کنید و به راحتی برنامه‌های هوش مصنوعی تولیدی را با قدرت محاسباتی محدود بسازید. +[![ناظرهای GitHub](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![شاخۀ GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![ستاره‌های GitHub](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) -برای شروع استفاده از این منابع، مراحل زیر را دنبال کنید: -1. **مخزن را فورک کنید**: کلیک کنید [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **مخزن را کلون کنید**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**به جامعه دیسکورد هوش مصنوعی مایکروسافت بپیوندید و با کارشناسان و توسعه‌دهندگان دیگر ملاقات کنید**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +[![دیسکورد جامعه Azure AI](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi مجموعه‌ای از مدل‌های هوش مصنوعی متن‌باز است که توسط مایکروسافت توسعه یافته‌اند. + +Phi در حال حاضر قدرتمندترین و مقرون‌به‌صرفه‌ترین مدل زبان کوچک (SLM) است که در زمینه‌های چندزبانه، استدلال، تولید متن/چت، برنامه‌نویسی، تصاویر، صوت و سایر سناریوها عملکرد بسیار خوبی دارد. + +شما می‌توانید Phi را در فضای ابری یا دستگاه‌های لبه‌ای مستقر کنید و به‌راحتی با منابع محاسباتی محدود، برنامه‌های هوش مصنوعی مولد بسازید. + +برای شروع استفاده از این منابع، مراحل زیر را دنبال کنید: +1. **فورک کردن مخزن**: کلیک کنید روی [![شاخۀ GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **کلون کردن مخزن**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**عضویت در جامعه دیسکورد مایکروسافت AI و ملاقات با کارشناسان و توسعه‌دهندگان دیگر**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![کاور](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.fa.png) ## 🌐 پشتیبانی چندزبانه -[فرانسوی](../fr/README.md) | [اسپانیایی](../es/README.md) | [آلمانی](../de/README.md) | [روسی](../ru/README.md) | [عربی](../ar/README.md) | [فارسی](./README.md) | [اردو](../ur/README.md) | [چینی (ساده‌شده)](../zh/README.md) | [چینی (سنتی، ماکائو)](../mo/README.md) | [چینی (سنتی، هنگ کنگ)](../hk/README.md) | [چینی (سنتی، تایوان)](../tw/README.md) | [ژاپنی](../ja/README.md) | [کره‌ای](../ko/README.md) | [هندی](../hi/README.md) | [بنگالی](../bn/README.md) | [مراتی](../mr/README.md) | [نپالی](../ne/README.md) | [پنجابی (گورمخی)](../pa/README.md) | [پرتغالی (پرتغال)](../pt/README.md) | [پرتغالی (برزیل)](../br/README.md) | [ایتالیایی](../it/README.md) | [لهستانی](../pl/README.md) | [ترکی](../tr/README.md) | [یونانی](../el/README.md) | [تایلندی](../th/README.md) | [سوئدی](../sv/README.md) | [دانمارکی](../da/README.md) | [نروژی](../no/README.md) | [فنلاندی](../fi/README.md) | [هلندی](../nl/README.md) | [عبری](../he/README.md) | [ویتنامی](../vi/README.md) | [اندونزیایی](../id/README.md) | [مالایی](../ms/README.md) | [تاگالوگ (فیلیپینی)](../tl/README.md) | [سواحیلی](../sw/README.md) | [مجاری](../hu/README.md) | [چکی](../cs/README.md) | [اسلواکی](../sk/README.md) | [رومانیایی](../ro/README.md) | [بلغاری](../bg/README.md) | [صربی (سیریلیک)](../sr/README.md) | [کرواتی](../hr/README.md) | [اسلوونیایی](../sl/README.md) +[فرانسوی](../fr/README.md) | [اسپانیایی](../es/README.md) | [آلمانی](../de/README.md) | [روسی](../ru/README.md) | [عربی](../ar/README.md) | [فارسی](./README.md) | [اردو](../ur/README.md) | [چینی (ساده‌شده)](../zh/README.md) | [چینی (سنتی، ماکائو)](../mo/README.md) | [چینی (سنتی، هنگ کنگ)](../hk/README.md) | [چینی (سنتی، تایوان)](../tw/README.md) | [ژاپنی](../ja/README.md) | [کره‌ای](../ko/README.md) | [هندی](../hi/README.md) | [بنگالی](../bn/README.md) | [مراتی](../mr/README.md) | [نپالی](../ne/README.md) | [پنجابی (گورمکھی)](../pa/README.md) | [پرتغالی (پرتغال)](../pt/README.md) | [پرتغالی (برزیل)](../br/README.md) | [ایتالیایی](../it/README.md) | [لهستانی](../pl/README.md) | [ترکی](../tr/README.md) | [یونانی](../el/README.md) | [تایلندی](../th/README.md) | [سوئدی](../sv/README.md) | [دانمارکی](../da/README.md) | [نروژی](../no/README.md) | [فنلاندی](../fi/README.md) | [هلندی](../nl/README.md) | [عبری](../he/README.md) | [ویتنامی](../vi/README.md) | [اندونزیایی](../id/README.md) | [مالایی](../ms/README.md) | [تاگالوگ (فیلیپینی)](../tl/README.md) | [سواحیلی](../sw/README.md) | [مجارستانی](../hu/README.md) | [چکی](../cs/README.md) | [اسلواکی](../sk/README.md) | [رومانیایی](../ro/README.md) | [بلغاری](../bg/README.md) | [صربی (سیریلیک)](../sr/README.md) | [کرواسی](../hr/README.md) | [اسلوونیایی](../sl/README.md) ## فهرست مطالب -- مقدمه - - [خوش‌آمدید به خانواده فی](./md/01.Introduction/01/01.PhiFamily.md) - - [راه‌اندازی محیط خود](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [درک فناوری‌های کلیدی](./md/01.Introduction/01/01.Understandingtech.md) - - [ایمنی هوش مصنوعی برای مدل‌های فی](./md/01.Introduction/01/01.AISafety.md) - - [پشتیبانی سخت‌افزاری فی](./md/01.Introduction/01/01.Hardwaresupport.md) - - [مدل‌های فی و دسترسی در پلتفرم‌های مختلف](./md/01.Introduction/01/01.Edgeandcloud.md) - - [استفاده از Guidance-ai و فی](./md/01.Introduction/01/01.Guidance.md) - - [مدل‌های مارکت‌پلیس گیت‌هاب](https://github.com/marketplace/models) - - [کاتالوگ مدل‌های هوش مصنوعی آژور](https://ai.azure.com) - -- استنتاج فی در محیط‌های مختلف - - [هوجینگ فیس](./md/01.Introduction/02/01.HF.md) - - [مدل‌های گیت‌هاب](./md/01.Introduction/02/02.GitHubModel.md) - - [کاتالوگ مدل‌های آژور AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [اولاما](./md/01.Introduction/02/04.Ollama.md) - - [ابزار هوش مصنوعی VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- استنتاج خانواده فی - - [استنتاج فی در iOS](./md/01.Introduction/03/iOS_Inference.md) - - [استنتاج فی در اندروید](./md/01.Introduction/03/Android_Inference.md) - - [استنتاج فی در Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [استنتاج فی در PC هوش مصنوعی](./md/01.Introduction/03/AIPC_Inference.md) - - [استنتاج فی با فریم‌ورک MLX اپل](./md/01.Introduction/03/MLX_Inference.md) - - [استنتاج فی در سرور محلی](./md/01.Introduction/03/Local_Server_Inference.md) - - [استنتاج فی در سرور راه دور با استفاده از ابزار هوش مصنوعی](./md/01.Introduction/03/Remote_Interence.md) - - [استنتاج فی با Rust](./md/01.Introduction/03/Rust_Inference.md) - - [استنتاج فی--ویژن به صورت محلی](./md/01.Introduction/03/Vision_Inference.md) - - [استنتاج فی با Kaito AKS، کانتینرهای آژور (پشتیبانی رسمی)](./md/01.Introduction/03/Kaito_Inference.md) - -- [کوانتیزه کردن خانواده فی](./md/01.Introduction/04/QuantifyingPhi.md) - - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از افزونه‌های هوش مصنوعی مولد برای onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از فریم‌ورک MLX اپل](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- ارزیابی فی -- [هوش مصنوعی مسئول](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry برای ارزیابی](./md/01.Introduction/05/AIFoundry.md) - - [استفاده از Promptflow برای ارزیابی](./md/01.Introduction/05/Promptflow.md) - +- مقدمه + - [خوش آمدید به خانواده Phi](./md/01.Introduction/01/01.PhiFamily.md) + - [راه‌اندازی محیط کاری شما](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [درک فناوری‌های کلیدی](./md/01.Introduction/01/01.Understandingtech.md) + - [ایمنی هوش مصنوعی برای مدل‌های Phi](./md/01.Introduction/01/01.AISafety.md) + - [پشتیبانی سخت‌افزاری Phi](./md/01.Introduction/01/01.Hardwaresupport.md) + - [مدل‌های Phi و دسترسی آنها در پلتفرم‌های مختلف](./md/01.Introduction/01/01.Edgeandcloud.md) + - [استفاده از Guidance-ai و Phi](./md/01.Introduction/01/01.Guidance.md) + - [مدل‌های بازار GitHub](https://github.com/marketplace/models) + - [کاتالوگ مدل‌های هوش مصنوعی Azure](https://ai.azure.com) + +- استنتاج Phi در محیط‌های مختلف + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [مدل‌های GitHub](./md/01.Introduction/02/02.GitHubModel.md) + - [کاتالوگ مدل‌های Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [ابزارک AI برای VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- استنتاج خانواده Phi + - [استنتاج Phi در iOS](./md/01.Introduction/03/iOS_Inference.md) + - [استنتاج Phi در اندروید](./md/01.Introduction/03/Android_Inference.md) + - [استنتاج Phi در Jetson](./md/01.Introduction/03/Jetson_Inference.md) + - [استنتاج Phi در رایانه‌های AI](./md/01.Introduction/03/AIPC_Inference.md) + - [استنتاج Phi با فریم‌ورک Apple MLX](./md/01.Introduction/03/MLX_Inference.md) + - [استنتاج Phi در سرور محلی](./md/01.Introduction/03/Local_Server_Inference.md) + - [استنتاج Phi در سرور راه دور با استفاده از ابزارک AI](./md/01.Introduction/03/Remote_Interence.md) + - [استنتاج Phi با Rust](./md/01.Introduction/03/Rust_Inference.md) + - [استنتاج Phi–Vision در محیط محلی](./md/01.Introduction/03/Vision_Inference.md) + - [استنتاج Phi با Kaito AKS و کانتینرهای Azure (پشتیبانی رسمی)](./md/01.Introduction/03/Kaito_Inference.md) + +- [کوانتیزه کردن خانواده Phi](./md/01.Introduction/04/QuantifyingPhi.md) + - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از افزونه‌های هوش مصنوعی مولد برای onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [کوانتیزه کردن Phi-3.5 / 4 با استفاده از فریم‌ورک Apple MLX](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- ارزیابی Phi +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) + - RAG با Azure AI Search - - [چگونه از Phi-4-mini و Phi-4-multimodal (RAG) با Azure AI Search استفاده کنیم](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + - [نحوه استفاده از Phi-4-mini و Phi-4-multimodal(RAG) با Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - نمونه‌های توسعه برنامه Phi - - برنامه‌های متن و چت + - برنامه‌های متنی و چت - نمونه‌های Phi-4 🆕 - - [📓] [چت با مدل Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [چت با مدل محلی Phi-4 ONNX در .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [برنامه کنسول چت .NET با Phi-4 ONNX با استفاده از Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [📓] [چت با مدل ONNX Phi-4-mini](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [چت با مدل ONNX محلی Phi-4 در دات‌نت](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [برنامه کنسول چت دات‌نت با Phi-4 ONNX با استفاده از Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - نمونه‌های Phi-3 / 3.5 - [چت‌بات محلی در مرورگر با استفاده از Phi3، ONNX Runtime Web و WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - [چت OpenVino](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [چند مدل - Phi-3-mini تعاملی و OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - ساخت یک Wrapper و استفاده از Phi-3 با MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [بهینه‌سازی مدل - چگونه مدل Phi-3-min را برای ONNX Runtime Web با Olive بهینه کنیم](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [چند مدل - تعامل Phi-3-mini و OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - ساخت یک wrapper و استفاده از Phi-3 با MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [بهینه‌سازی مدل - نحوه بهینه‌سازی مدل Phi-3-min برای ONNX Runtime Web با Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) - [برنامه WinUI3 با Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [برنامه یادداشت‌های AI قدرتمند WinUI3 نمونه چندمدلی](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [تنظیم دقیق و ادغام مدل‌های سفارشی Phi-3 با Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [تنظیم دقیق و ادغام مدل‌های سفارشی Phi-3 با Prompt flow در Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [ارزیابی مدل تنظیم‌شده Phi-3 / Phi-3.5 در Azure AI Foundry با تمرکز بر اصول مسئول هوش مصنوعی مایکروسافت](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [نمونه برنامه یادداشت‌های چند مدلی WinUI3 با هوش مصنوعی](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [تنظیم دقیق و یکپارچه‌سازی مدل‌های سفارشی Phi-3 با Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [تنظیم دقیق و یکپارچه‌سازی مدل‌های سفارشی Phi-3 با Prompt flow در Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [ارزیابی مدل Phi-3 / Phi-3.5 تنظیم دقیق شده در Azure AI Foundry با تمرکز بر اصول مسئولیت‌پذیری هوش مصنوعی مایکروسافت](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - [📓] [نمونه پیش‌بینی زبان Phi-3.5-mini-instruct (چینی/انگلیسی)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [چت‌بات RAG WebGPU Phi-3.5-Instruct](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [استفاده از GPU ویندوز برای ایجاد راه‌حل Prompt flow با Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [استفاده از Microsoft Phi-3.5 tflite برای ایجاد برنامه اندروید](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [مثال پرسش و پاسخ .NET با استفاده از مدل محلی ONNX Phi-3 با Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) - - [برنامه کنسول چت .NET با Semantic Kernel و Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) + - [چت‌بات RAG Phi-3.5-Instruct WebGPU](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [استفاده از GPU ویندوز برای ساخت راه‌حل Prompt flow با Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [ساخت اپلیکیشن اندروید با استفاده از Microsoft Phi-3.5 tflite](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [نمونه پرسش و پاسخ دات‌نت با مدل محلی ONNX Phi-3 با استفاده از Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [برنامه کنسول چت دات‌نت با Semantic Kernel و Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) - - نمونه‌های کدنویسی SDK استنتاج Azure AI + - نمونه‌های کد مبتنی بر Azure AI Inference SDK - نمونه‌های Phi-4 🆕 - - [📓] [ایجاد کد پروژه با استفاده از Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - [📓] [تولید کد پروژه با استفاده از Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - نمونه‌های Phi-3 / 3.5 - - [ساخت چت Visual Studio Code GitHub Copilot خود با خانواده Phi-3 مایکروسافت](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [ایجاد عامل چت Visual Studio Code خود با Phi-3.5 توسط مدل‌های GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [ساخت چت GitHub Copilot در Visual Studio Code با خانواده Microsoft Phi-3](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [ساخت عامل چت Copilot در Visual Studio Code با مدل‌های GitHub و Phi-3.5](./md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - نمونه‌های استدلال پیشرفته - نمونه‌های Phi-4 🆕 - - [📓] [نمونه‌های استدلال Phi-4-mini](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - + - [📓] [نمونه‌های Phi-4-mini-reasoning یا Phi-4-reasoning](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [تنظیم دقیق Phi-4-mini-reasoning با Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [تنظیم دقیق Phi-4-mini-reasoning با Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning با مدل‌های GitHub](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini استدلال با مدل‌های Azure AI Foundry](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) - دموها - [دموهای Phi-4-mini میزبانی شده در Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - [دموهای Phi-4-multimodal میزبانی شده در Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - نمونه‌های دیداری + - نمونه‌های بینایی - نمونه‌های Phi-4 🆕 - - [📓] [استفاده از Phi-4-multimodal برای خواندن تصاویر و تولید کد](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - [📓] [استفاده از Phi-4-multimodal برای خواندن تصاویر و تولید کد](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - نمونه‌های Phi-3 / 3.5 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [دمو: Phi-3 بازیافت](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - دستیار بصری زبان - با Phi3-Vision و OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision نمونه چند قاب یا چند تصویر](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision مدل ONNX محلی با استفاده از Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [مدل ONNX محلی Phi-3 Vision مبتنی بر منو با استفاده از Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - - نمونه‌های صوتی - - Phi-4 نمونه‌ها 🆕 - - [📓] [استخراج متن صوتی با استفاده از Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [نمونه صوتی Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [نمونه ترجمه گفتار Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET برنامه کنسول با استفاده از Phi-4-multimodal برای تحلیل فایل صوتی و تولید متن](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - - نمونه‌های MOE - - Phi-3 / 3.5 نمونه‌ها - - [📓] [مدل‌های ترکیب متخصصین Phi-3.5 (MoEs) نمونه شبکه‌های اجتماعی](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [ساخت یک خط لوله بازیابی-تقویت‌شده (RAG) با NVIDIA NIM Phi-3 MOE، Azure AI Search، و LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - - نمونه‌های فراخوانی تابع - - Phi-4 نمونه‌ها 🆕 - - [📓] [استفاده از فراخوانی تابع با Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [استفاده از فراخوانی تابع برای ایجاد چند عامل با Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [استفاده از فراخوانی تابع با Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - - نمونه‌های ترکیب چندحالته - - Phi-4 نمونه‌ها 🆕 - - [📓] [استفاده از Phi-4-multimodal به عنوان یک روزنامه‌نگار فناوری](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET برنامه کنسول با استفاده از Phi-4-multimodal برای تحلیل تصاویر](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- نمونه‌های تنظیم دقیق Phi - - [سناریوهای تنظیم دقیق](./md/03.FineTuning/FineTuning_Scenarios.md) - - [تنظیم دقیق در مقابل RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [تنظیم دقیق اجازه دهید Phi-3 تبدیل به یک متخصص صنعت شود](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [تنظیم دقیق Phi-3 با ابزار AI برای VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [تنظیم دقیق Phi-3 با سرویس یادگیری ماشین Azure](./md/03.FineTuning/Introduce_AzureML.md) - - [تنظیم دقیق Phi-3 با Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [تنظیم دقیق Phi-3 با QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [تنظیم دقیق Phi-3 با Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [تنظیم دقیق Phi-3 با Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) -- [فاین‌تیون کردن با Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [آزمایش عملی فاین‌تیون کردن با Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) - - [فاین‌تیون کردن Phi-3-vision با Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [فاین‌تیون کردن Phi-3 با فریم‌ورک Apple MLX](./md/03.FineTuning/FineTuning_MLX.md) - - [فاین‌تیون کردن Phi-3-vision (پشتیبانی رسمی)](./md/03.FineTuning/FineTuning_Vision.md) - - [فاین‌تیون کردن Phi-3 با Kaito AKS و Azure Containers (پشتیبانی رسمی)](./md/03.FineTuning/FineTuning_Kaito.md) - - [فاین‌تیون کردن Phi-3 و Phi-3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - -- آزمایش عملی - - [بررسی مدل‌های پیشرفته: LLMs، SLMs، توسعه محلی و موارد دیگر](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [آزاد کردن پتانسیل NLP: فاین‌تیون کردن با Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) - -- مقالات تحقیقاتی و انتشارات علمی - - [Textbooks Are All You Need II: گزارش فنی phi-1.5](https://arxiv.org/abs/2309.05463) - - [گزارش فنی Phi-3: یک مدل زبان بسیار قدرتمند روی گوشی شما](https://arxiv.org/abs/2404.14219) - - [گزارش فنی Phi-4](https://arxiv.org/abs/2412.08905) - - [گزارش فنی Phi-4-Mini: مدل‌های زبان چندوجهی فشرده اما قدرتمند با استفاده از Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) - - [بهینه‌سازی مدل‌های زبان کوچک برای فراخوانی توابع در خودرو](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) فاین‌تیون کردن PHI-3 برای پاسخ به سوالات چندگزینه‌ای: روش‌شناسی، نتایج و چالش‌ها](https://arxiv.org/abs/2501.01588) - -## استفاده از مدل‌های Phi - -### Phi در Azure AI Foundry - -شما می‌توانید یاد بگیرید چگونه از Microsoft Phi استفاده کنید و چگونه راهکارهای E2E را در دستگاه‌های سخت‌افزاری مختلف خود بسازید. برای تجربه Phi، ابتدا با مدل‌ها کار کنید و Phi را برای سناریوهای خود سفارشی کنید با استفاده از [کاتالوگ مدل Azure AI Foundry Azure AI](https://aka.ms/phi3-azure-ai). اطلاعات بیشتر در مورد شروع کار را می‌توانید در [شروع سریع Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) بیابید. - -**محیط آزمایشی** -هر مدل یک محیط آزمایشی اختصاصی برای آزمایش دارد [محیط آزمایشی Azure AI](https://aka.ms/try-phi3). - -### Phi در مدل‌های GitHub - -شما می‌توانید یاد بگیرید چگونه از Microsoft Phi استفاده کنید و چگونه راهکارهای E2E را در دستگاه‌های سخت‌افزاری مختلف خود بسازید. برای تجربه Phi، ابتدا با مدل کار کنید و Phi را برای سناریوهای خود سفارشی کنید با استفاده از [کاتالوگ مدل GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). اطلاعات بیشتر در مورد شروع کار را می‌توانید در [شروع سریع کاتالوگ مدل GitHub](/md/02.QuickStart/GitHubModel_QuickStart.md) بیابید. - -**محیط آزمایشی** -هر مدل یک [محیط آزمایشی اختصاصی برای آزمایش مدل](/md/02.QuickStart/GitHubModel_QuickStart.md) دارد. - -### Phi در Hugging Face - -شما می‌توانید مدل را در [Hugging Face](https://huggingface.co/microsoft) نیز پیدا کنید. - -**محیط آزمایشی** -[محیط آزمایشی Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) - -## هوش مصنوعی مسئولانه - -مایکروسافت متعهد است که به مشتریان خود کمک کند تا از محصولات هوش مصنوعی ما به صورت مسئولانه استفاده کنند، تجربیات خود را به اشتراک بگذارند و از طریق ابزارهایی مانند یادداشت‌های شفافیت و ارزیابی تأثیر، شراکت‌های مبتنی بر اعتماد ایجاد کنند. بسیاری از این منابع را می‌توانید در [https://aka.ms/RAI](https://aka.ms/RAI) پیدا کنید. -رویکرد مایکروسافت به هوش مصنوعی مسئولانه بر پایه اصول هوش مصنوعی ما شامل انصاف، قابلیت اطمینان و ایمنی، حریم خصوصی و امنیت، شمول، شفافیت و پاسخگویی است. - -مدل‌های زبان طبیعی، تصویر و گفتار در مقیاس بزرگ - مانند مدل‌هایی که در این نمونه استفاده می‌شوند - ممکن است به روش‌هایی رفتار کنند که ناعادلانه، غیرقابل اعتماد یا توهین‌آمیز باشند و در نتیجه آسیب‌هایی ایجاد کنند. لطفاً یادداشت شفافیت [خدمات Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) را مطالعه کنید تا از خطرات و محدودیت‌ها مطلع شوید. - -رویکرد پیشنهادی برای کاهش این خطرات شامل اضافه کردن یک سیستم ایمنی در معماری شماست که می‌تواند رفتارهای مضر را شناسایی و جلوگیری کند. [ایمنی محتوای Azure AI](https://learn.microsoft.com/azure/ai-services/content-safety/overview) یک لایه محافظتی مستقل ارائه می‌دهد که قادر به شناسایی محتوای مضر تولید شده توسط کاربران و هوش مصنوعی در برنامه‌ها و خدمات است. ایمنی محتوای Azure AI شامل APIهای متن و تصویر است که به شما امکان شناسایی محتوای مضر را می‌دهند. در Azure AI Foundry، خدمات ایمنی محتوا به شما اجازه می‌دهند تا نمونه کدهایی برای شناسایی محتوای مضر در حالت‌های مختلف را مشاهده، بررسی و امتحان کنید. [مستندات شروع سریع](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) شما را در ارسال درخواست‌ها به این سرویس راهنمایی می‌کند. - -جنبه دیگری که باید در نظر گرفت عملکرد کلی برنامه است. در برنامه‌های چندوجهی و چندمدلی، عملکرد به معنای این است که سیستم همان‌طور که شما و کاربران انتظار دارید عمل کند، از جمله تولید نکردن خروجی‌های مضر. ارزیابی عملکرد کلی برنامه شما با استفاده از [ارزیاب‌های عملکرد و کیفیت و ارزیاب‌های خطر و ایمنی](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) اهمیت دارد. همچنین شما می‌توانید با استفاده از [ارزیاب‌های سفارشی](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) ایجاد و ارزیابی کنید. -شما می‌توانید برنامه هوش مصنوعی خود را در محیط توسعه با استفاده از [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) ارزیابی کنید. با استفاده از یک مجموعه داده آزمایشی یا یک هدف، تولیدات برنامه هوش مصنوعی شما به صورت کمی با ارزیاب‌های داخلی یا ارزیاب‌های سفارشی انتخابی شما اندازه‌گیری می‌شوند. برای شروع کار با azure ai evaluation sdk جهت ارزیابی سیستم خود، می‌توانید از [راهنمای شروع سریع](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) پیروی کنید. پس از اجرای یک دوره ارزیابی، می‌توانید [نتایج را در Azure AI Foundry مشاهده کنید](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). + - [📓][متن به متن تصویر در Phi-3-vision](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) + - [📓][Embedding CLIP در Phi-3-vision](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [دمو: بازیافت Phi-3](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - دستیار زبان بصری - با Phi3-Vision و OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) + - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) + - [📓][نمونه چند فریم یا چند تصویر در Phi-3.5 Vision](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [مدل محلی ONNX Phi-3 Vision با استفاده از Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [مدل محلی ONNX Phi-3 Vision مبتنی بر منو با استفاده از Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + + - نمونه‌های صوتی + - نمونه‌های Phi-4 🆕 + - [📓] [استخراج متن صوتی با استفاده از Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [نمونه صوتی Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [نمونه ترجمه گفتار Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [برنامه کنسول .NET با استفاده از Phi-4-multimodal Audio برای تحلیل فایل صوتی و تولید متن](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + + - نمونه‌های MOE + - نمونه‌های Phi-3 / 3.5 + - [📓] [نمونه شبکه مخلوطی از کارشناسان (MoEs) Phi-3.5 در شبکه‌های اجتماعی](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [ساخت یک خط لوله RAG (تولید تقویت شده با بازیابی) با NVIDIA NIM Phi-3 MOE، Azure AI Search و LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - نمونه‌های فراخوانی توابع + - نمونه‌های Phi-4 🆕 + - [📓] [استفاده از فراخوانی توابع با Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [استفاده از فراخوانی توابع برای ایجاد چند عامل با Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [استفاده از فراخوانی توابع با Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - نمونه‌های ترکیب چندرسانه‌ای + - نمونه‌های Phi-4 🆕 + - [📓] [استفاده از Phi-4-multimodal به عنوان خبرنگار فناوری](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [برنامه کنسول .NET با استفاده از Phi-4-multimodal برای تحلیل تصاویر](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- نمونه‌های ریزتنظیم Phi + - [سناریوهای ریزتنظیم](./md/03.FineTuning/FineTuning_Scenarios.md) + - [مقایسه ریزتنظیم و RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [ریزتنظیم برای تبدیل Phi-3 به یک متخصص صنعتی](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [ریزتنظیم Phi-3 با AI Toolkit برای VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [ریزتنظیم Phi-3 با Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) +- [تنظیم دقیق Phi-3 با Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [تنظیم دقیق Phi-3 با QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [تنظیم دقیق Phi-3 با Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [تنظیم دقیق Phi-3 با Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [تنظیم دقیق با Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [کارگاه عملی تنظیم دقیق با Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) + - [تنظیم دقیق Phi-3-vision با Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [تنظیم دقیق Phi-3 با Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) + - [تنظیم دقیق Phi-3-vision (پشتیبانی رسمی)](./md/03.FineTuning/FineTuning_Vision.md) + - [تنظیم دقیق Phi-3 با Kaito AKS ، Azure Containers (پشتیبانی رسمی)](./md/03.FineTuning/FineTuning_Kaito.md) + - [تنظیم دقیق Phi-3 و 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) + +- کارگاه عملی + - [کاوش مدل‌های پیشرفته: LLMها، SLMها، توسعه محلی و بیشتر](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [بازکردن پتانسیل NLP: تنظیم دقیق با Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) + +- مقالات و انتشارات پژوهشی دانشگاهی + - [کتاب‌های درسی همه چیزی هستند که نیاز دارید II: گزارش فنی phi-1.5](https://arxiv.org/abs/2309.05463) + - [گزارش فنی Phi-3: مدل زبان قدرتمند و محلی روی گوشی شما](https://arxiv.org/abs/2404.14219) + - [گزارش فنی Phi-4](https://arxiv.org/abs/2412.08905) + - [گزارش فنی Phi-4-Mini: مدل‌های زبان چندرسانه‌ای جمع‌وجور و قدرتمند از طریق Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) + - [بهینه‌سازی مدل‌های کوچک زبان برای فراخوانی توابع داخل خودرو](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) تنظیم دقیق PHI-3 برای پاسخ‌دهی به سوالات چندگزینه‌ای: روش‌شناسی، نتایج و چالش‌ها](https://arxiv.org/abs/2501.01588) + - [گزارش فنی استدلال Phi-4](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [گزارش فنی استدلال Phi-4-mini](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) + +## استفاده از مدل‌های Phi + +### Phi در Azure AI Foundry + +می‌توانید یاد بگیرید چگونه از Microsoft Phi استفاده کنید و راهکارهای انتها به انتها را روی دستگاه‌های سخت‌افزاری مختلف خود بسازید. برای تجربه Phi به صورت عملی، با بازی کردن با مدل‌ها و شخصی‌سازی Phi برای سناریوهای خود با استفاده از [کاتالوگ مدل Azure AI Foundry](https://aka.ms/phi3-azure-ai) شروع کنید. اطلاعات بیشتر را در شروع کار با [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) بیابید. + +**محیط آزمایش** +هر مدل یک محیط آزمایش اختصاصی برای تست دارد [Azure AI Playground](https://aka.ms/try-phi3). + +### Phi در مدل‌های GitHub + +می‌توانید یاد بگیرید چگونه از Microsoft Phi استفاده کنید و راهکارهای انتها به انتها را روی دستگاه‌های سخت‌افزاری مختلف خود بسازید. برای تجربه Phi به صورت عملی، با بازی کردن با مدل و شخصی‌سازی Phi برای سناریوهای خود با استفاده از [کاتالوگ مدل GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) شروع کنید. اطلاعات بیشتر را در شروع کار با [کاتالوگ مدل GitHub](/md/02.QuickStart/GitHubModel_QuickStart.md) بیابید. + +**محیط آزمایش** +هر مدل یک [محیط آزمایش اختصاصی برای تست مدل](/md/02.QuickStart/GitHubModel_QuickStart.md) دارد. + +### Phi در Hugging Face + +می‌توانید مدل را همچنین در [Hugging Face](https://huggingface.co/microsoft) پیدا کنید. + +**محیط آزمایش** +[محیط آزمایش Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) + +## هوش مصنوعی مسئولانه + +مایکروسافت متعهد است به کمک به مشتریان خود برای استفاده مسئولانه از محصولات هوش مصنوعی، به اشتراک‌گذاری تجربیات و ایجاد همکاری‌های مبتنی بر اعتماد از طریق ابزارهایی مانند Transparency Notes و Impact Assessments. بسیاری از این منابع را می‌توانید در [https://aka.ms/RAI](https://aka.ms/RAI) بیابید. +رویکرد مایکروسافت به هوش مصنوعی مسئولانه بر اصول هوش مصنوعی ما استوار است که شامل عدالت، قابلیت اطمینان و ایمنی، حفظ حریم خصوصی و امنیت، فراگیری، شفافیت و پاسخگویی می‌شود. +مدل‌های زبان طبیعی، تصویر و گفتار در مقیاس بزرگ – مانند نمونه‌ای که در اینجا استفاده شده – ممکن است به گونه‌ای رفتار کنند که ناعادلانه، غیرقابل اعتماد یا توهین‌آمیز باشد و در نتیجه باعث آسیب شود. لطفاً برای آگاهی از ریسک‌ها و محدودیت‌ها به [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) مراجعه کنید. + +روش پیشنهادی برای کاهش این ریسک‌ها، گنجاندن یک سیستم ایمنی در معماری شما است که بتواند رفتارهای مضر را شناسایی و جلوگیری کند. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) یک لایه مستقل حفاظتی فراهم می‌کند که قادر به شناسایی محتوای مضر تولید شده توسط کاربران و هوش مصنوعی در برنامه‌ها و سرویس‌ها است. Azure AI Content Safety شامل APIهای متنی و تصویری است که به شما امکان می‌دهد محتوای مضر را شناسایی کنید. در Azure AI Foundry، سرویس Content Safety به شما اجازه می‌دهد نمونه کدهای تشخیص محتوای مضر در حوزه‌های مختلف را مشاهده، بررسی و آزمایش کنید. مستندات [quickstart](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) زیر شما را در ارسال درخواست به این سرویس راهنمایی می‌کند. + +یکی دیگر از جنبه‌های مهم، عملکرد کلی برنامه است. در برنامه‌های چندرسانه‌ای و چندمدلی، عملکرد به معنای این است که سیستم همان‌طور که شما و کاربران انتظار دارید عمل کند، از جمله عدم تولید خروجی‌های مضر. ارزیابی عملکرد کلی برنامه با استفاده از [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) اهمیت دارد. همچنین می‌توانید با استفاده از [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) ارزیابی‌های خود را ایجاد و اجرا کنید. + +شما می‌توانید برنامه هوش مصنوعی خود را در محیط توسعه با استفاده از [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) ارزیابی کنید. با داشتن یک مجموعه داده آزمایشی یا هدف مشخص، نسل‌های برنامه هوش مصنوعی شما به صورت کمی با ارزیاب‌های داخلی یا سفارشی انتخابی اندازه‌گیری می‌شوند. برای شروع کار با azure ai evaluation sdk و ارزیابی سیستم خود، می‌توانید از [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) پیروی کنید. پس از اجرای ارزیابی، می‌توانید [نتایج را در Azure AI Foundry مشاهده کنید](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). ## علائم تجاری -این پروژه ممکن است شامل علائم تجاری یا لوگوهای مربوط به پروژه‌ها، محصولات یا خدمات باشد. استفاده مجاز از علائم تجاری یا لوگوهای Microsoft باید مطابق با [دستورالعمل‌های علائم تجاری و برند Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) باشد. استفاده از علائم تجاری یا لوگوهای Microsoft در نسخه‌های اصلاح‌شده این پروژه نباید باعث سردرگمی یا القای حمایت Microsoft شود. هرگونه استفاده از علائم تجاری یا لوگوهای شخص ثالث باید مطابق با سیاست‌های همان شخص ثالث باشد. +این پروژه ممکن است شامل علائم تجاری یا لوگوهایی برای پروژه‌ها، محصولات یا خدمات باشد. استفاده مجاز از علائم تجاری یا لوگوهای Microsoft تابع و ملزم به رعایت [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) است. +استفاده از علائم تجاری یا لوگوهای Microsoft در نسخه‌های تغییر یافته این پروژه نباید باعث سردرگمی یا القای حمایت Microsoft شود. هرگونه استفاده از علائم تجاری یا لوگوهای شخص ثالث تابع سیاست‌های آن‌ها است. **سلب مسئولیت**: -این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما برای دقت تلاش می‌کنیم، لطفاً توجه داشته باشید که ترجمه‌های خودکار ممکن است شامل خطاها یا نادقتی‌هایی باشند. سند اصلی به زبان اصلی آن باید به‌عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفه‌ای انسانی توصیه می‌شود. ما مسئول هیچ‌گونه سوءتفاهم یا تفسیر نادرستی که از استفاده از این ترجمه ناشی شود، نیستیم. \ No newline at end of file +این سند با استفاده از سرویس ترجمه هوش مصنوعی [Co-op Translator](https://github.com/Azure/co-op-translator) ترجمه شده است. در حالی که ما برای دقت تلاش می‌کنیم، لطفاً توجه داشته باشید که ترجمه‌های خودکار ممکن است حاوی اشتباهات یا نواقصی باشند. سند اصلی به زبان مادری خود باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفه‌ای انسانی توصیه می‌شود. ما مسئول هیچ گونه سوءتفاهم یا برداشت نادرستی که از استفاده از این ترجمه ناشی شود، نیستیم. \ No newline at end of file diff --git a/translations/fr/README.md b/translations/fr/README.md index b75a8c67..70124f05 100644 --- a/translations/fr/README.md +++ b/translations/fr/README.md @@ -1,218 +1,237 @@ # Phi Cookbook : Exemples pratiques avec les modèles Phi de Microsoft -Phi est une série de modèles d'intelligence artificielle open source développés par Microsoft. +[![Ouvrir et utiliser les exemples dans GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Ouvrir dans Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi est actuellement le modèle de langage compact (SLM) le plus puissant et le plus rentable, avec d'excellents résultats dans les benchmarks de langues multiples, raisonnement, génération de texte/chat, codage, images, audio et autres scénarios. +[![Contributeurs GitHub](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![Issues GitHub](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![Pull requests GitHub](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -Vous pouvez déployer Phi sur le cloud ou sur des appareils en périphérie, et construire facilement des applications d'IA générative avec une puissance de calcul limitée. +[![Watchers GitHub](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![Forks GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![Stars GitHub](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) + +[![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi est une série de modèles d’IA open source développés par Microsoft. + +Phi est actuellement le modèle de langage petit (SLM) le plus puissant et économique, avec d’excellents résultats dans plusieurs langues, le raisonnement, la génération de texte/chat, le codage, les images, l’audio et d’autres scénarios. + +Vous pouvez déployer Phi sur le cloud ou sur des appareils en périphérie, et créer facilement des applications d’IA générative avec une puissance de calcul limitée. Suivez ces étapes pour commencer à utiliser ces ressources : 1. **Forkez le dépôt** : Cliquez sur [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) 2. **Clonez le dépôt** : `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Rejoignez la communauté Discord Microsoft AI pour rencontrer des experts et d'autres développeurs**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +3. [**Rejoignez la communauté Microsoft AI Discord et rencontrez des experts et d’autres développeurs**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.fr.png) ## 🌐 Support multilingue -[Français](./README.md) | [Espagnol](../es/README.md) | [Allemand](../de/README.md) | [Russe](../ru/README.md) | [Arabe](../ar/README.md) | [Persan (Farsi)](../fa/README.md) | [Ourdou](../ur/README.md) | [Chinois (Simplifié)](../zh/README.md) | [Chinois (Traditionnel, Macao)](../mo/README.md) | [Chinois (Traditionnel, Hong Kong)](../hk/README.md) | [Chinois (Traditionnel, Taïwan)](../tw/README.md) | [Japonais](../ja/README.md) | [Coréen](../ko/README.md) | [Hindi](../hi/README.md) [Bengali](../bn/README.md) | [Marathi](../mr/README.md) | [Népalais](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portugais (Portugal)](../pt/README.md) | [Portugais (Brésil)](../br/README.md) | [Italien](../it/README.md) | [Polonais](../pl/README.md) | [Turc](../tr/README.md) | [Grec](../el/README.md) | [Thaï](../th/README.md) | [Suédois](../sv/README.md) | [Danois](../da/README.md) | [Norvégien](../no/README.md) | [Finnois](../fi/README.md) | [Néerlandais](../nl/README.md) | [Hébreu](../he/README.md) | [Vietnamien](../vi/README.md) | [Indonésien](../id/README.md) | [Malais](../ms/README.md) | [Tagalog (Philippin)](../tl/README.md) | [Swahili](../sw/README.md) | [Hongrois](../hu/README.md) | [Tchèque](../cs/README.md) | [Slovaque](../sk/README.md) | [Roumain](../ro/README.md) | [Bulgare](../bg/README.md) | [Serbe (Cyrillique)](../sr/README.md) | [Croate](../hr/README.md) | [Slovène](../sl/README.md) +[Français](./README.md) | [Espagnol](../es/README.md) | [Allemand](../de/README.md) | [Russe](../ru/README.md) | [Arabe](../ar/README.md) | [Persan (Farsi)](../fa/README.md) | [Ourdou](../ur/README.md) | [Chinois (Simplifié)](../zh/README.md) | [Chinois (Traditionnel, Macao)](../mo/README.md) | [Chinois (Traditionnel, Hong Kong)](../hk/README.md) | [Chinois (Traditionnel, Taïwan)](../tw/README.md) | [Japonais](../ja/README.md) | [Coréen](../ko/README.md) | [Hindi](../hi/README.md) [Bengali](../bn/README.md) | [Marathi](../mr/README.md) | [Népalais](../ne/README.md) | [Pendjabi (Gurmukhi)](../pa/README.md) | [Portugais (Portugal)](../pt/README.md) | [Portugais (Brésil)](../br/README.md) | [Italien](../it/README.md) | [Polonais](../pl/README.md) | [Turc](../tr/README.md) | [Grec](../el/README.md) | [Thaï](../th/README.md) | [Suédois](../sv/README.md) | [Danois](../da/README.md) | [Norvégien](../no/README.md) | [Finnois](../fi/README.md) | [Néerlandais](../nl/README.md) | [Hébreu](../he/README.md) | [Vietnamien](../vi/README.md) | [Indonésien](../id/README.md) | [Malais](../ms/README.md) | [Tagalog (Philippin)](../tl/README.md) | [Swahili](../sw/README.md) | [Hongrois](../hu/README.md) | [Tchèque](../cs/README.md) | [Slovaque](../sk/README.md) | [Roumain](../ro/README.md) | [Bulgare](../bg/README.md) | [Serbe (Cyrillique)](../sr/README.md) | [Croate](../hr/README.md) | [Slovène](../sl/README.md) ## Table des matières - Introduction - [Bienvenue dans la famille Phi](./md/01.Introduction/01/01.PhiFamily.md) - [Configurer votre environnement](./md/01.Introduction/01/01.EnvironmentSetup.md) - [Comprendre les technologies clés](./md/01.Introduction/01/01.Understandingtech.md) - - [Sécurité de l'IA pour les modèles Phi](./md/01.Introduction/01/01.AISafety.md) - - [Support matériel pour Phi](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Modèles Phi et disponibilité sur différentes plateformes](./md/01.Introduction/01/01.Edgeandcloud.md) - - [Utilisation de Guidance-ai et Phi](./md/01.Introduction/01/01.Guidance.md) + - [Sécurité IA pour les modèles Phi](./md/01.Introduction/01/01.AISafety.md) + - [Support matériel Phi](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Modèles Phi & disponibilité sur les plateformes](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Utiliser Guidance-ai et Phi](./md/01.Introduction/01/01.Guidance.md) - [Modèles GitHub Marketplace](https://github.com/marketplace/models) - - [Catalogue de modèles Azure AI](https://ai.azure.com) + - [Catalogue des modèles Azure AI](https://ai.azure.com) -- Inférence de Phi dans différents environnements - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [Modèles GitHub](./md/01.Introduction/02/02.GitHubModel.md) - - [Catalogue de modèles Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) +- Inférence Phi dans différents environnements + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [Modèles GitHub](./md/01.Introduction/02/02.GitHubModel.md) + - [Catalogue Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) -- Inférence dans la famille Phi +- Inférence Phi Family - [Inférence Phi sur iOS](./md/01.Introduction/03/iOS_Inference.md) - [Inférence Phi sur Android](./md/01.Introduction/03/Android_Inference.md) - [Inférence Phi sur Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [Inférence Phi sur un PC AI](./md/01.Introduction/03/AIPC_Inference.md) + - [Inférence Phi sur PC AI](./md/01.Introduction/03/AIPC_Inference.md) - [Inférence Phi avec le framework Apple MLX](./md/01.Introduction/03/MLX_Inference.md) - - [Inférence Phi sur un serveur local](./md/01.Introduction/03/Local_Server_Inference.md) - - [Inférence Phi sur un serveur distant avec AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) + - [Inférence Phi sur serveur local](./md/01.Introduction/03/Local_Server_Inference.md) + - [Inférence Phi sur serveur distant avec AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) - [Inférence Phi avec Rust](./md/01.Introduction/03/Rust_Inference.md) - [Inférence Phi--Vision en local](./md/01.Introduction/03/Vision_Inference.md) - [Inférence Phi avec Kaito AKS, conteneurs Azure (support officiel)](./md/01.Introduction/03/Kaito_Inference.md) - -- [Quantification de la famille Phi](./md/01.Introduction/04/QuantifyingPhi.md) +- [Quantification de la famille Phi](./md/01.Introduction/04/QuantifyingPhi.md) - [Quantification de Phi-3.5 / 4 avec llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [Quantification de Phi-3.5 / 4 avec des extensions d'IA générative pour onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Quantification de Phi-3.5 / 4 avec les extensions Generative AI pour onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - [Quantification de Phi-3.5 / 4 avec Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - [Quantification de Phi-3.5 / 4 avec le framework Apple MLX](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) -- Évaluation de Phi +- Évaluation Phi - [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry pour l'évaluation](./md/01.Introduction/05/AIFoundry.md) - - [Utiliser Promptflow pour l'évaluation](./md/01.Introduction/05/Promptflow.md) + - [Azure AI Foundry pour l’évaluation](./md/01.Introduction/05/AIFoundry.md) + - [Utiliser Promptflow pour l’évaluation](./md/01.Introduction/05/Promptflow.md) - RAG avec Azure AI Search - - [Comment utiliser Phi-4-mini et Phi-4-multimodal (RAG) avec Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + - [Comment utiliser Phi-4-mini et Phi-4-multimodal(RAG) avec Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) -- Exemples de développement d'applications Phi - - Applications Text & Chat +- Exemples de développement d’applications Phi + - Applications texte & chat - Exemples Phi-4 🆕 - - [📓] [Chat avec le modèle ONNX Phi-4-mini](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Chat avec le modèle ONNX local Phi-4 en .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Application console .NET avec Phi-4 ONNX utilisant Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [📓] [Chat avec le modèle Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [Chat avec modèle ONNX local Phi-4 en .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Application console chat .NET avec Phi-4 ONNX utilisant Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - Exemples Phi-3 / 3.5 - - [Chatbot local dans le navigateur utilisant Phi-3, ONNX Runtime Web et WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [Chatbot local dans le navigateur avec Phi3, ONNX Runtime Web et WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - [Chat OpenVino](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [Multi-modèle - Interaction entre Phi-3-mini et OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - Construire un wrapper et utiliser Phi-3 avec MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [Optimisation de modèle - Comment optimiser le modèle Phi-3-min pour ONNX Runtime Web avec Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [Multi-modèle - Phi-3-mini interactif et OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - Création d’un wrapper et utilisation de Phi-3 avec MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [Optimisation de modèle - Comment optimiser le modèle Phi-3-mini pour ONNX Runtime Web avec Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) - [Application WinUI3 avec Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [Exemple d'application de notes alimentée par l'IA Multi-modèle WinUI3](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [Affiner et intégrer des modèles Phi-3 personnalisés avec Promptflow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Affiner et intégrer des modèles Phi-3 personnalisés avec Promptflow dans Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Évaluer le modèle Phi-3 / Phi-3.5 affiné dans Azure AI Foundry en se concentrant sur les principes de l'IA responsable de Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Exemple de prédiction linguistique (chinois/anglais) avec Phi-3.5-mini-instruct](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Chatbot RAG WebGPU avec Phi-3.5-Instruct](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Utiliser le GPU Windows pour créer une solution Promptflow avec Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [Créer une application Android avec Microsoft Phi-3.5 tflite](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Exemple Q&A .NET utilisant le modèle ONNX Phi-3 local avec Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Application console .NET pour chat avec Semantic Kernel et Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Exemples de code basés sur le SDK d'inférence Azure AI + - [Exemple d’application notes multi-modèles alimentée par IA WinUI3](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [Affiner et intégrer des modèles Phi-3 personnalisés avec Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Affiner et intégrer des modèles Phi-3 personnalisés avec Prompt flow dans Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Évaluer le modèle Phi-3 / Phi-3.5 affiné dans Azure AI Foundry en se concentrant sur les principes Responsible AI de Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Exemple de prédiction linguistique Phi-3.5-mini-instruct (chinois/anglais)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Chatbot RAG Phi-3.5-Instruct WebGPU](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [Utiliser le GPU Windows pour créer une solution Prompt flow avec Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Utiliser Microsoft Phi-3.5 tflite pour créer une application Android](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Exemple Q&R .NET utilisant le modèle ONNX local Phi-3 avec Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Application console chat .NET avec Semantic Kernel et Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Exemples basés sur le SDK Azure AI Inference - Exemples Phi-4 🆕 - - [📓] [Générer du code de projet avec Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - [📓] [Générer le code projet avec Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - Exemples Phi-3 / 3.5 - - [Créer votre propre extension Visual Studio Code GitHub Copilot Chat avec la famille Phi-3 de Microsoft](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [Créer votre propre agent Copilot Chat pour Visual Studio Code avec Phi-3.5 et les modèles GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [Créez votre propre chat GitHub Copilot pour Visual Studio Code avec Microsoft Phi-3 Family](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [Créez votre propre agent chat Copilot pour Visual Studio Code avec Phi-3.5 via les modèles GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - Exemples de raisonnement avancé - Exemples Phi-4 🆕 - - [📓] [Exemples de raisonnement avec Phi-4-mini](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - Démos + - [📓] [Exemples Phi-4-mini-reasoning ou Phi-4-reasoning](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Affinage de Phi-4-mini-reasoning avec Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Affinage de Phi-4-mini-reasoning avec Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning avec les modèles GitHub](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini raisonnement avec les modèles Azure AI Foundry](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - Démonstrations - [Démos Phi-4-mini hébergées sur Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - [Démos Phi-4-multimodal hébergées sur Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - Exemples Vision - Exemples Phi-4 🆕 - [📓] [Utiliser Phi-4-multimodal pour lire des images et générer du code](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - Exemples Phi-3 / 3.5 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [📓][Phi-3-vision - Texte d’image à texte](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - Assistant visuel linguistique - avec Phi3-Vision et OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [DEMO : Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - Assistant langage visuel - avec Phi3-Vision et OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Exemple multi-images ou multi-frames Phi-3.5 Vision](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Modèle ONNX local Phi-3 Vision utilisant Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [Modèle ONNX local Phi-3 Vision basé sur un menu utilisant Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + - [📓][Phi-3.5 Vision exemple multi-images ou multi-frames](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Modèle local Phi-3 Vision ONNX utilisant Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [Modèle local Phi-3 Vision ONNX avec menu utilisant Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - Échantillons audio - - Échantillons Phi-4 🆕 + - Exemples Audio + - Exemples Phi-4 🆕 - [📓] [Extraction de transcriptions audio avec Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Échantillon audio Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Exemple de traduction de discours Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [Application console .NET utilisant Phi-4-multimodal pour analyser un fichier audio et générer une transcription](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - - Échantillons MOE - - Échantillons Phi-3 / 3.5 - - [📓] [Échantillon des modèles Mixture of Experts (MoEs) Phi-3.5 pour les réseaux sociaux](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [Construction d'un pipeline Retrieval-Augmented Generation (RAG) avec NVIDIA NIM Phi-3 MOE, Azure AI Search et LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - Échantillons d'appel de fonctions - - Échantillons Phi-4 🆕 - - [📓] [Utilisation de l'appel de fonctions avec Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Utilisation de l'appel de fonctions pour créer des multi-agents avec Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [Utilisation de l'appel de fonctions avec Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - Échantillons de mélange multimodal - - Échantillons Phi-4 🆕 - - [📓] [Utilisation de Phi-4-multimodal en tant que journaliste technologique](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [📓] [Exemple audio Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Exemple de traduction vocale avec Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [Application console .NET utilisant Phi-4-multimodal Audio pour analyser un fichier audio et générer une transcription](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + + - Exemples MOE + - Exemples Phi-3 / 3.5 + - [📓] [Modèles Mixture of Experts (MoEs) Phi-3.5 - Exemple réseaux sociaux](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [Création d’un pipeline Retrieval-Augmented Generation (RAG) avec NVIDIA NIM Phi-3 MOE, Azure AI Search et LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - Exemples d’appel de fonction + - Exemples Phi-4 🆕 + - [📓] [Utiliser l’appel de fonction avec Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Utiliser l’appel de fonction pour créer des multi-agents avec Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Utiliser l’appel de fonction avec Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - Exemples de mix multimodal + - Exemples Phi-4 🆕 + - [📓] [Utiliser Phi-4-multimodal en tant que journaliste technologique](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - [Application console .NET utilisant Phi-4-multimodal pour analyser des images](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) -- Échantillons de fine-tuning Phi +- Exemples de fine-tuning Phi - [Scénarios de fine-tuning](./md/03.FineTuning/FineTuning_Scenarios.md) - [Fine-tuning vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Fine-tuning pour que Phi-3 devienne un expert dans une industrie](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [Fine-tuning : faire de Phi-3 un expert industriel](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - [Fine-tuning Phi-3 avec AI Toolkit pour VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - [Fine-tuning Phi-3 avec Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) - - [Fine-tuning Phi-3 avec Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [Fine-tuning Phi-3 avec QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [Fine-tuning Phi-3 avec Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Fine-tuning Phi-3 avec Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Affinage avec Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Atelier pratique : Affinage avec Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) +- [Affinage de Phi-3 avec Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [Affinage de Phi-3 avec QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [Affinage de Phi-3 avec Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Affinage de Phi-3 avec Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Affinage avec Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Atelier pratique d’affinage avec Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) - [Affinage de Phi-3-vision avec Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - [Affinage de Phi-3 avec le framework Apple MLX](./md/03.FineTuning/FineTuning_MLX.md) - [Affinage de Phi-3-vision (support officiel)](./md/03.FineTuning/FineTuning_Vision.md) - - [Affinage de Phi-3 avec Kaito AKS et Azure Containers (support officiel)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Affinage de Phi-3 avec Kaito AKS, Azure Containers (support officiel)](./md/03.FineTuning/FineTuning_Kaito.md) - [Affinage de Phi-3 et 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - Atelier pratique - [Explorer les modèles de pointe : LLMs, SLMs, développement local et plus](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [Libérer le potentiel du NLP : Affinage avec Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) + - [Libérer le potentiel du NLP : affinage avec Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) - Articles de recherche académique et publications - - [Les manuels sont tout ce dont vous avez besoin II : rapport technique phi-1.5](https://arxiv.org/abs/2309.05463) - - [Rapport technique Phi-3 : Un modèle linguistique performant localement sur votre téléphone](https://arxiv.org/abs/2404.14219) + - [Textbooks Are All You Need II : rapport technique phi-1.5](https://arxiv.org/abs/2309.05463) + - [Rapport technique Phi-3 : un modèle de langage très performant directement sur votre téléphone](https://arxiv.org/abs/2404.14219) - [Rapport technique Phi-4](https://arxiv.org/abs/2412.08905) - - [Rapport technique Phi-4-Mini : Modèles linguistiques multimodaux compacts mais puissants via Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) - - [Optimisation des petits modèles linguistiques pour l'appel de fonctions embarquées](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) Affinage de PHI-3 pour le questionnement à choix multiples : méthodologie, résultats et défis](https://arxiv.org/abs/2501.01588) + - [Rapport technique Phi-4-Mini : modèles de langage multimodaux compacts mais puissants via Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) + - [Optimisation des petits modèles de langage pour les appels de fonction embarqués](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) Affinage de PHI-3 pour les questions à choix multiples : méthodologie, résultats et défis](https://arxiv.org/abs/2501.01588) + - [Rapport technique Phi-4-reasoning](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Rapport technique Phi-4-mini-reasoning](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) ## Utilisation des modèles Phi ### Phi sur Azure AI Foundry -Découvrez comment utiliser Microsoft Phi et construire des solutions de bout en bout sur différents appareils matériels. Pour expérimenter Phi par vous-même, commencez par explorer les modèles et personnaliser Phi pour vos scénarios via le [Catalogue de modèles Azure AI Foundry](https://aka.ms/phi3-azure-ai). Vous pouvez en apprendre davantage en consultant le guide de démarrage [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). +Vous pouvez apprendre à utiliser Microsoft Phi et à créer des solutions de bout en bout sur différents appareils matériels. Pour découvrir Phi par vous-même, commencez par tester les modèles et personnaliser Phi selon vos cas d’usage grâce au [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai). Pour en savoir plus, consultez la page de démarrage rapide [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) **Playground** -Chaque modèle dispose d'un espace dédié pour tester le modèle [Azure AI Playground](https://aka.ms/try-phi3). +Chaque modèle dispose d’un espace dédié pour le tester : [Azure AI Playground](https://aka.ms/try-phi3). -### Phi sur les modèles GitHub +### Phi sur GitHub Models -Découvrez comment utiliser Microsoft Phi et construire des solutions de bout en bout sur différents appareils matériels. Pour expérimenter Phi par vous-même, commencez par explorer le modèle et personnaliser Phi pour vos scénarios via le [Catalogue de modèles GitHub](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Vous pouvez en apprendre davantage en consultant le guide de démarrage [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md). +Vous pouvez apprendre à utiliser Microsoft Phi et à créer des solutions de bout en bout sur différents appareils matériels. Pour découvrir Phi par vous-même, commencez par tester le modèle et personnaliser Phi selon vos cas d’usage via le [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Pour en savoir plus, consultez la page de démarrage rapide [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) **Playground** -Chaque modèle dispose d'un [espace dédié pour tester le modèle](/md/02.QuickStart/GitHubModel_QuickStart.md). +Chaque modèle dispose d’un [playground dédié pour le tester](/md/02.QuickStart/GitHubModel_QuickStart.md). ### Phi sur Hugging Face -Vous pouvez également trouver le modèle sur [Hugging Face](https://huggingface.co/microsoft). +Vous pouvez également retrouver le modèle sur [Hugging Face](https://huggingface.co/microsoft) **Playground** -[Playground Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct). +[Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## IA Responsable +## IA responsable -Microsoft s'engage à aider ses clients à utiliser ses produits d'IA de manière responsable, à partager ses apprentissages et à construire des partenariats basés sur la confiance grâce à des outils comme les notes de transparence et les évaluations d'impact. Beaucoup de ces ressources sont disponibles sur [https://aka.ms/RAI](https://aka.ms/RAI). -L'approche de Microsoft en matière d'IA responsable repose sur nos principes d'IA : équité, fiabilité et sécurité, confidentialité et protection, inclusivité, transparence et responsabilité. +Microsoft s’engage à aider ses clients à utiliser ses produits d’IA de manière responsable, à partager ses enseignements et à construire des partenariats basés sur la confiance grâce à des outils comme Transparency Notes et Impact Assessments. Beaucoup de ces ressources sont disponibles sur [https://aka.ms/RAI](https://aka.ms/RAI). +L’approche de Microsoft en matière d’IA responsable repose sur nos principes d’IA : équité, fiabilité et sécurité, confidentialité et sécurité, inclusion, transparence et responsabilité. +Les modèles à grande échelle de traitement du langage naturel, d’image et de parole – comme ceux utilisés dans cet exemple – peuvent potentiellement se comporter de manière injuste, peu fiable ou offensante, causant ainsi des préjudices. Veuillez consulter la [note de transparence du service Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) pour vous informer des risques et des limites. -Les modèles à grande échelle de langage naturel, image et voix - comme ceux utilisés dans cet exemple - peuvent potentiellement agir de manière injuste, peu fiable ou offensante, entraînant ainsi des dommages. Veuillez consulter la [note de transparence du service Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) pour être informé des risques et des limitations. +La méthode recommandée pour atténuer ces risques consiste à intégrer un système de sécurité dans votre architecture capable de détecter et d’empêcher les comportements nuisibles. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) offre une couche de protection indépendante, capable de détecter le contenu nuisible généré par les utilisateurs et par l’IA dans les applications et services. Azure AI Content Safety inclut des API de texte et d’image qui vous permettent de détecter les contenus préjudiciables. Dans Azure AI Foundry, le service Content Safety vous permet de visualiser, d’explorer et d’essayer des exemples de code pour détecter les contenus nuisibles à travers différentes modalités. La [documentation de démarrage rapide](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) suivante vous guide pour effectuer des requêtes vers le service. -La méthode recommandée pour atténuer ces risques est d'inclure un système de sécurité dans votre architecture capable de détecter et prévenir les comportements nuisibles. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) fournit une couche de protection indépendante, capable de détecter les contenus nuisibles générés par les utilisateurs et l'IA dans les applications et services. Azure AI Content Safety inclut des API pour le texte et les images permettant de détecter les contenus nuisibles. Au sein d'Azure AI Foundry, le service Content Safety vous permet de visualiser, explorer et tester des exemples de code pour détecter des contenus nuisibles à travers différentes modalités. La [documentation de démarrage rapide](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) vous guide dans la réalisation de requêtes vers le service. +Un autre aspect à considérer est la performance globale de l’application. Avec les applications multi-modales et multi-modèles, la performance signifie que le système fonctionne comme vous et vos utilisateurs l’attendez, y compris en n’engendrant pas de résultats nuisibles. Il est important d’évaluer la performance de votre application globale en utilisant les [évaluateurs de Performance, Qualité, Risque et Sécurité](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). Vous avez également la possibilité de créer et d’évaluer avec des [évaluateurs personnalisés](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Un autre aspect à prendre en compte est la performance globale de l'application. Avec des applications multimodales et multi-modèles, nous considérons la performance comme le fait que le système fonctionne selon vos attentes et celles de vos utilisateurs, y compris en évitant de générer des résultats nuisibles. Il est important d'évaluer la performance globale de votre application en utilisant les [évaluateurs de performance et qualité ainsi que ceux des risques et de la sécurité](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). Vous avez également la possibilité de créer et d'évaluer avec des [évaluateurs personnalisés](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Vous pouvez évaluer votre application d'IA dans votre environnement de développement en utilisant le [SDK d'évaluation Azure AI](https://microsoft.github.io/promptflow/index.html). Avec un jeu de données de test ou une cible, les générations de votre application d'IA générative sont mesurées quantitativement grâce à des évaluateurs intégrés ou des évaluateurs personnalisés selon votre choix. Pour commencer avec le SDK d'évaluation Azure AI afin d'évaluer votre système, vous pouvez suivre le [guide de démarrage rapide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). Une fois que vous exécutez une session d'évaluation, vous pouvez [visualiser les résultats dans Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). +Vous pouvez évaluer votre application IA dans votre environnement de développement en utilisant le [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). À partir d’un jeu de données de test ou d’un objectif, les générations de votre application d’IA générative sont mesurées quantitativement avec des évaluateurs intégrés ou personnalisés selon votre choix. Pour commencer avec le azure ai evaluation sdk afin d’évaluer votre système, vous pouvez suivre le [guide de démarrage rapide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). Une fois que vous avez lancé une exécution d’évaluation, vous pouvez [visualiser les résultats dans Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). ## Marques déposées -Ce projet peut contenir des marques déposées ou des logos pour des projets, produits ou services. L'utilisation autorisée des marques déposées ou logos de Microsoft est soumise et doit respecter les [directives de marque et de logo de Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). L'utilisation des marques déposées ou logos de Microsoft dans des versions modifiées de ce projet ne doit pas entraîner de confusion ni impliquer un parrainage de Microsoft. Toute utilisation de marques déposées ou logos de tiers est soumise aux politiques de ces tiers. +Ce projet peut contenir des marques ou logos de projets, produits ou services. L’utilisation autorisée des marques ou logos Microsoft est soumise aux [Directives sur les marques et la marque de Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) et doit les respecter. +L’utilisation des marques ou logos Microsoft dans des versions modifiées de ce projet ne doit pas prêter à confusion ni laisser entendre un parrainage par Microsoft. Toute utilisation de marques ou logos de tiers est soumise aux politiques de ces tiers. **Avertissement** : -Ce document a été traduit à l'aide du service de traduction automatique [Co-op Translator](https://github.com/Azure/co-op-translator). Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour les informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction. \ No newline at end of file +Ce document a été traduit à l’aide du service de traduction automatique [Co-op Translator](https://github.com/Azure/co-op-translator). Bien que nous nous efforcions d’assurer l’exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d’origine doit être considéré comme la source faisant foi. Pour des informations critiques, une traduction professionnelle réalisée par un humain est recommandée. Nous ne sommes pas responsables des malentendus ou des mauvaises interprétations résultant de l’utilisation de cette traduction. \ No newline at end of file diff --git a/translations/hi/README.md b/translations/hi/README.md index 38cb12ad..012ce851 100644 --- a/translations/hi/README.md +++ b/translations/hi/README.md @@ -1,217 +1,239 @@ -# Phi कुकबुक: Microsoft के Phi मॉडल्स के साथ प्रैक्टिकल उदाहरण +# Phi कुकबुक: Microsoft के Phi मॉडल के साथ व्यावहारिक उदाहरण -Phi Microsoft द्वारा विकसित ओपन सोर्स AI मॉडल्स की एक सीरीज़ है। +[![GitHub Codespaces में सैंपल खोलें और उपयोग करें](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Dev Containers में खोलें](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi वर्तमान में सबसे शक्तिशाली और लागत-प्रभावी छोटे भाषा मॉडल (SLM) है, जो मल्टी-लैंग्वेज, तर्कशक्ति, टेक्स्ट/चैट जनरेशन, कोडिंग, इमेज, ऑडियो और अन्य परिदृश्यों में बहुत अच्छे बेंचमार्क प्रदान करता है। +[![GitHub योगदानकर्ता](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub मुद्दे](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub पुल अनुरोध](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PR स्वागत है](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -आप Phi को क्लाउड या एज डिवाइस पर तैनात कर सकते हैं, और सीमित कंप्यूटिंग शक्ति के साथ आसानी से जनरेटिव AI एप्लिकेशन बना सकते हैं। +[![GitHub वॉचर्स](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub फोर्क्स](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub स्टार्स](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) -इन संसाधनों का उपयोग शुरू करने के लिए इन चरणों का पालन करें: -1. **रेपॉजिटरी को फोर्क करें**: क्लिक करें [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **रेपॉजिटरी को क्लोन करें**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Microsoft AI Discord कम्युनिटी में शामिल हों और विशेषज्ञों तथा अन्य डेवलपर्स से मिलें**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +[![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi Microsoft द्वारा विकसित ओपन सोर्स AI मॉडलों की एक श्रृंखला है। + +Phi वर्तमान में सबसे शक्तिशाली और किफायती छोटे भाषा मॉडल (SLM) है, जो बहुभाषी, तर्क, टेक्स्ट/चैट जनरेशन, कोडिंग, इमेज, ऑडियो और अन्य परिदृश्यों में बहुत अच्छे बेंचमार्क देता है। + +आप Phi को क्लाउड या एज डिवाइस पर डिप्लॉय कर सकते हैं, और सीमित कंप्यूटिंग पावर के साथ आसानी से जनरेटिव AI एप्लिकेशन बना सकते हैं। + +इन संसाधनों का उपयोग शुरू करने के लिए ये कदम उठाएं: +1. **रिपॉजिटरी फोर्क करें**: क्लिक करें [![GitHub फोर्क्स](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **रिपॉजिटरी क्लोन करें**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**Microsoft AI Discord Community में शामिल हों और विशेषज्ञों व अन्य डेवलपर्स से मिलें**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.hi.png) -## 🌐 मल्टी-लैंग्वेज सपोर्ट -[फ्रेंच](../fr/README.md) | [स्पेनिश](../es/README.md) | [जर्मन](../de/README.md) | [रूसी](../ru/README.md) | [अरबी](../ar/README.md) | [फ़ारसी (पर्शियन)](../fa/README.md) | [उर्दू](../ur/README.md) | [चीनी (सरलीकृत)](../zh/README.md) | [चीनी (पारंपरिक, मकाऊ)](../mo/README.md) | [चीनी (पारंपरिक, हांगकांग)](../hk/README.md) | [चीनी (पारंपरिक, ताइवान)](../tw/README.md) | [जापानी](../ja/README.md) | [कोरियाई](../ko/README.md) | [हिंदी](./README.md) | [बंगाली](../bn/README.md) | [मराठी](../mr/README.md) | [नेपाली](../ne/README.md) | [पंजाबी (गुरमुखी)](../pa/README.md) | [पुर्तगाली (पुर्तगाल)](../pt/README.md) | [पुर्तगाली (ब्राज़ील)](../br/README.md) | [इतालवी](../it/README.md) | [पोलिश](../pl/README.md) | [तुर्की](../tr/README.md) | [ग्रीक](../el/README.md) | [थाई](../th/README.md) | [स्वीडिश](../sv/README.md) | [डेनिश](../da/README.md) | [नॉर्वेजियन](../no/README.md) | [फिनिश](../fi/README.md) | [डच](../nl/README.md) | [हिब्रू](../he/README.md) | [वियतनामी](../vi/README.md) | [इंडोनेशियाई](../id/README.md) | [मलय](../ms/README.md) | [टागालोग (फिलिपीनो)](../tl/README.md) | [स्वाहिली](../sw/README.md) | [हंगेरियन](../hu/README.md) | [चेक](../cs/README.md) | [स्लोवाक](../sk/README.md) | [रोमानियन](../ro/README.md) | [बुल्गारियन](../bg/README.md) | [सर्बियन (सिरिलिक)](../sr/README.md) | [क्रोएशियाई](../hr/README.md) | [स्लोवेनियाई](../sl/README.md) -## सामग्री सूची - -- परिचय - - [फाई परिवार में आपका स्वागत है](./md/01.Introduction/01/01.PhiFamily.md) - - [अपना वातावरण सेटअप करना](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [मुख्य तकनीकों को समझना](./md/01.Introduction/01/01.Understandingtech.md) - - [फाई मॉडल्स के लिए AI सुरक्षा](./md/01.Introduction/01/01.AISafety.md) - - [फाई हार्डवेयर समर्थन](./md/01.Introduction/01/01.Hardwaresupport.md) - - [फाई मॉडल्स और प्लेटफॉर्म पर उपलब्धता](./md/01.Introduction/01/01.Edgeandcloud.md) - - [Guidance-ai और फाई का उपयोग करना](./md/01.Introduction/01/01.Guidance.md) - - [GitHub मार्केटप्लेस मॉडल्स](https://github.com/marketplace/models) - - [Azure AI मॉडल कैटलॉग](https://ai.azure.com) - -- विभिन्न वातावरण में फाई इनफेरेंस - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [GitHub मॉडल्स](./md/01.Introduction/02/02.GitHubModel.md) - - [Azure AI Foundry मॉडल कैटलॉग](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- फाई परिवार इनफेरेंस - - [iOS में फाई इनफेरेंस](./md/01.Introduction/03/iOS_Inference.md) - - [Android में फाई इनफेरेंस](./md/01.Introduction/03/Android_Inference.md) - - [Jetson में फाई इनफेरेंस](./md/01.Introduction/03/Jetson_Inference.md) - - [AI PC में फाई इनफेरेंस](./md/01.Introduction/03/AIPC_Inference.md) - - [Apple MLX फ्रेमवर्क के साथ फाई इनफेरेंस](./md/01.Introduction/03/MLX_Inference.md) - - [लोकल सर्वर में फाई इनफेरेंस](./md/01.Introduction/03/Local_Server_Inference.md) - - [AI Toolkit का उपयोग करके रिमोट सर्वर में फाई इनफेरेंस](./md/01.Introduction/03/Remote_Interence.md) - - [Rust के साथ फाई इनफेरेंस](./md/01.Introduction/03/Rust_Inference.md) - - [लोकल में फाई--Vision इनफेरेंस](./md/01.Introduction/03/Vision_Inference.md) - - [Kaito AKS, Azure Containers (आधिकारिक समर्थन) के साथ फाई इनफेरेंस](./md/01.Introduction/03/Kaito_Inference.md) - -- [फाई परिवार को क्वांटिफाई करना](./md/01.Introduction/04/QuantifyingPhi.md) - - [llama.cpp का उपयोग करके Phi-3.5 / 4 को क्वांटिफाई करना](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [onnxruntime के लिए जनरेटिव AI एक्सटेंशन का उपयोग करके Phi-3.5 / 4 को क्वांटिफाई करना](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [Intel OpenVINO का उपयोग करके Phi-3.5 / 4 को क्वांटिफाई करना](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Apple MLX फ्रेमवर्क का उपयोग करके Phi-3.5 / 4 को क्वांटिफाई करना](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- फाई का मूल्यांकन -- [रिस्पॉन्सिबल AI](./md/01.Introduction/05/ResponsibleAI.md) - - [एज़्योर AI फाउंड्री के लिए मूल्यांकन](./md/01.Introduction/05/AIFoundry.md) - - [मूल्यांकन के लिए प्रॉम्प्टफ्लो का उपयोग](./md/01.Introduction/05/Promptflow.md) +## 🌐 बहुभाषी समर्थन +[फ्रेंच](../fr/README.md) | [स्पेनिश](../es/README.md) | [जर्मन](../de/README.md) | [रूसी](../ru/README.md) | [अरबी](../ar/README.md) | [फ़ारसी (फ़ारसी)](../fa/README.md) | [उर्दू](../ur/README.md) | [चीनी (सरलीकृत)](../zh/README.md) | [चीनी (परंपरागत, मकाऊ)](../mo/README.md) | [चीनी (परंपरागत, हांगकांग)](../hk/README.md) | [चीनी (परंपरागत, ताइवान)](../tw/README.md) | [जापानी](../ja/README.md) | [कोरियाई](../ko/README.md) | [हिंदी](./README.md) [बंगाली](../bn/README.md) | [मराठी](../mr/README.md) | [नेपाली](../ne/README.md) | [पंजाबी (गुरुमुखी)](../pa/README.md) | [पुर्तगाली (पुर्तगाल)](../pt/README.md) | [पुर्तगाली (ब्राज़ील)](../br/README.md) | [इतालवी](../it/README.md) | [पोलिश](../pl/README.md) | [तुर्की](../tr/README.md) | [ग्रीक](../el/README.md) | [थाई](../th/README.md) | [स्वीडिश](../sv/README.md) | [डेनिश](../da/README.md) | [नॉर्वेजियन](../no/README.md) | [फ़िनिश](../fi/README.md) | [डच](../nl/README.md) | [हिब्रू](../he/README.md) | [वियतनामी](../vi/README.md) | [इंडोनेशियाई](../id/README.md) | [मलय](../ms/README.md) | [टैगालॉग (फ़िलीपीनी)](../tl/README.md) | [स्वाहिली](../sw/README.md) | [हंगेरियन](../hu/README.md) | [चेक](../cs/README.md) | [स्लोवाक](../sk/README.md) | [रोमानियाई](../ro/README.md) | [बल्गेरियाई](../bg/README.md) | [सर्बियाई (सिरिलिक)](../sr/README.md) | [क्रोएशियाई](../hr/README.md) | [स्लोवेनियाई](../sl/README.md) कृपया आउटपुट को बाएं से दाएं लिखें। + +[फ्रेंच](../fr/README.md) | [स्पेनिश](../es/README.md) | [जर्मन](../de/README.md) | [रूसी](../ru/README.md) | [अरबी](../ar/README.md) | [फ़ारसी (फ़ारसी)](../fa/README.md) | [उर्दू](../ur/README.md) | [चीनी (सरलीकृत)](../zh/README.md) | [चीनी (परंपरागत, मकाऊ)](../mo/README.md) | [चीनी (परंपरागत, हांगकांग)](../hk/README.md) | [चीनी (परंपरागत, ताइवान)](../tw/README.md) | [जापानी](../ja/README.md) | [कोरियाई](../ko/README.md) | [हिंदी](./README.md) [बंगाली](../bn/README.md) | [मराठी](../mr/README.md) | [नेपाली](../ne/README.md) | [पंजाबी (गुरुमुखी)](../pa/README.md) | [पुर्तगाली (पुर्तगाल)](../pt/README.md) | [पुर्तगाली (ब्राज़ील)](../br/README.md) | [इतालवी](../it/README.md) | [पोलिश](../pl/README.md) | [तुर्की](../tr/README.md) | [ग्रीक](../el/README.md) | [थाई](../th/README.md) | [स्वीडिश](../sv/README.md) | [डेनिश](../da/README.md) | [नॉर्वेजियन](../no/README.md) | [फ़िनिश](../fi/README.md) | [डच](../nl/README.md) | [हिब्रू](../he/README.md) | [वियतनामी](../vi/README.md) | [इंडोनेशियाई](../id/README.md) | [मलय](../ms/README.md) | [टैगालॉग (फ़िलीपीनी)](../tl/README.md) | [स्वाहिली](../sw/README.md) | [हंगेरियन](../hu/README.md) | [चेक](../cs/README.md) | [स्लोवाक](../sk/README.md) | [रोमानियाई](../ro/README.md) | [बल्गेरियाई](../bg/README.md) | [सर्बियाई (सिरिलिक)](../sr/README.md) | [क्रोएशियाई](../hr/README.md) | [स्लोवेनियाई](../sl/README.md) +## सामग्री तालिका + +- परिचय + - [Phi परिवार में आपका स्वागत है](./md/01.Introduction/01/01.PhiFamily.md) + - [अपने वातावरण की सेटिंग](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [प्रमुख तकनीकों को समझना](./md/01.Introduction/01/01.Understandingtech.md) + - [Phi मॉडल्स के लिए AI सुरक्षा](./md/01.Introduction/01/01.AISafety.md) + - [Phi हार्डवेयर समर्थन](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Phi मॉडल्स और प्लेटफॉर्म पर उपलब्धता](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Guidance-ai और Phi का उपयोग](./md/01.Introduction/01/01.Guidance.md) + - [GitHub मार्केटप्लेस मॉडल्स](https://github.com/marketplace/models) + - [Azure AI मॉडल कैटलॉग](https://ai.azure.com) + +- विभिन्न वातावरण में Inference Phi + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub मॉडल्स](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry मॉडल कैटलॉग](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Inference Phi परिवार + - [iOS में Inference Phi](./md/01.Introduction/03/iOS_Inference.md) + - [Android में Inference Phi](./md/01.Introduction/03/Android_Inference.md) + - [Jetson में Inference Phi](./md/01.Introduction/03/Jetson_Inference.md) + - [AI PC में Inference Phi](./md/01.Introduction/03/AIPC_Inference.md) + - [Apple MLX फ्रेमवर्क के साथ Inference Phi](./md/01.Introduction/03/MLX_Inference.md) + - [लोकल सर्वर में Inference Phi](./md/01.Introduction/03/Local_Server_Inference.md) + - [AI Toolkit का उपयोग करके रिमोट सर्वर में Inference Phi](./md/01.Introduction/03/Remote_Interence.md) + - [Rust के साथ Inference Phi](./md/01.Introduction/03/Rust_Inference.md) + - [लोकल में Inference Phi--Vision](./md/01.Introduction/03/Vision_Inference.md) + - [Kaito AKS, Azure कंटेनर्स (आधिकारिक समर्थन) के साथ Inference Phi](./md/01.Introduction/03/Kaito_Inference.md) + +- [Phi परिवार का क्वांटिफिकेशन](./md/01.Introduction/04/QuantifyingPhi.md) + - [llama.cpp का उपयोग करके Phi-3.5 / 4 का क्वांटाइजेशन](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [onnxruntime के लिए Generative AI एक्सटेंशन्स का उपयोग करके Phi-3.5 / 4 का क्वांटाइजेशन](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Intel OpenVINO का उपयोग करके Phi-3.5 / 4 का क्वांटाइजेशन](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Apple MLX फ्रेमवर्क का उपयोग करके Phi-3.5 / 4 का क्वांटाइजेशन](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Phi का मूल्यांकन +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) -- एज़्योर AI सर्च के साथ RAG - - [Phi-4-mini और Phi-4-multimodal (RAG) को एज़्योर AI सर्च के साथ कैसे उपयोग करें](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) +- Azure AI Search के साथ RAG + - [Azure AI Search के साथ Phi-4-mini और Phi-4-multimodal(RAG) का उपयोग कैसे करें](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) -- Phi एप्लिकेशन विकास के नमूने +- Phi एप्लिकेशन विकास नमूने - टेक्स्ट और चैट एप्लिकेशन - Phi-4 नमूने 🆕 - [📓] [Phi-4-mini ONNX मॉडल के साथ चैट करें](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Phi-4 लोकल ONNX मॉडल .NET के साथ चैट करें](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Semantic Kernel का उपयोग करके Phi-4 ONNX के साथ .NET कंसोल ऐप चैट](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [Phi-4 स्थानीय ONNX मॉडल .NET के साथ चैट करें](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Semantic Kernel का उपयोग करते हुए Phi-4 ONNX के साथ .NET कंसोल ऐप में चैट](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - Phi-3 / 3.5 नमूने - - [Phi3, ONNX Runtime Web और WebGPU का उपयोग करके ब्राउज़र में लोकल चैटबॉट](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [ओपनवीनो चैट](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [मल्टी मॉडल - Phi-3-mini और OpenAI Whisper के साथ इंटरएक्टिव](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - एक रैपर बनाना और MLFlow के साथ Phi-3 का उपयोग करना](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [मॉडल ऑप्टिमाइजेशन - Olive के साथ ONNX Runtime Web के लिए Phi-3-min मॉडल को ऑप्टिमाइज़ कैसे करें](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [WinUI3 ऐप Phi-3 mini-4k-instruct-onnx के साथ](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 मल्टी मॉडल AI पावर्ड नोट्स ऐप नमूना](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [कस्टम Phi-3 मॉडल को फाइन-ट्यून और प्रॉम्प्टफ्लो के साथ इंटीग्रेट करें](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [एज़्योर AI फाउंड्री में कस्टम Phi-3 मॉडल को फाइन-ट्यून और प्रॉम्प्टफ्लो के साथ इंटीग्रेट करें](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Microsoft के रिस्पॉन्सिबल AI सिद्धांतों पर ध्यान केंद्रित करते हुए एज़्योर AI फाउंड्री में फाइन-ट्यून किए गए Phi-3 / Phi-3.5 मॉडल का मूल्यांकन करें](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [Phi3, ONNX Runtime Web और WebGPU का उपयोग करते हुए ब्राउज़र में स्थानीय चैटबॉट](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVino चैट](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [मल्टी मॉडल - इंटरैक्टिव Phi-3-mini और OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - एक रैपर बनाना और Phi-3 के साथ MLFlow का उपयोग](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [मॉडल ऑप्टिमाइजेशन - Olive के साथ ONNX Runtime Web के लिए Phi-3-min मॉडल को कैसे ऑप्टिमाइज़ करें](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [Phi-3 mini-4k-instruct-onnx के साथ WinUI3 ऐप](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + -[WinUI3 मल्टी मॉडल AI पॉवर्ड नोट्स ऐप नमूना](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [कस्टम Phi-3 मॉडलों को फाइन-ट्यून और Prompt flow के साथ इंटीग्रेट करें](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Azure AI Foundry में Prompt flow के साथ कस्टम Phi-3 मॉडलों को फाइन-ट्यून और इंटीग्रेट करें](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Microsoft के Responsible AI सिद्धांतों पर ध्यान केंद्रित करते हुए Azure AI Foundry में फाइन-ट्यून किए गए Phi-3 / Phi-3.5 मॉडल का मूल्यांकन करें](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - [📓] [Phi-3.5-mini-instruct भाषा भविष्यवाणी नमूना (चीनी/अंग्रेज़ी)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - [Phi-3.5-Instruct WebGPU RAG चैटबॉट](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Windows GPU का उपयोग करके Phi-3.5-Instruct ONNX के साथ प्रॉम्प्टफ्लो समाधान बनाना](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Phi-3.5-Instruct ONNX के साथ Prompt flow समाधान बनाने के लिए Windows GPU का उपयोग](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - [Microsoft Phi-3.5 tflite का उपयोग करके Android ऐप बनाना](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Microsoft.ML.OnnxRuntime का उपयोग करके लोकल ONNX Phi-3 मॉडल के साथ Q&A .NET उदाहरण](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Semantic Kernel और Phi-3 के साथ कंसोल चैट .NET ऐप](../../md/04.HOL/dotnet/src/LabsPhi302) + - [Microsoft.ML.OnnxRuntime का उपयोग करते हुए स्थानीय ONNX Phi-3 मॉडल के साथ Q&A .NET उदाहरण](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Semantic Kernel और Phi-3 के साथ .NET कंसोल चैट ऐप](../../md/04.HOL/dotnet/src/LabsPhi302) - - एज़्योर AI इंफरेंस SDK कोड आधारित नमूने + - Azure AI Inference SDK कोड आधारित नमूने - Phi-4 नमूने 🆕 - [📓] [Phi-4-multimodal का उपयोग करके प्रोजेक्ट कोड जनरेट करें](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - Phi-3 / 3.5 नमूने - - [Microsoft Phi-3 परिवार के साथ अपना खुद का Visual Studio Code GitHub Copilot Chat बनाएं](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [GitHub मॉडल के साथ Phi-3.5 का उपयोग करके अपना खुद का Visual Studio Code Chat Copilot Agent बनाएं](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [Microsoft Phi-3 परिवार के साथ अपना Visual Studio Code GitHub Copilot चैट बनाएं](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [GitHub मॉडलों के साथ Phi-3.5 द्वारा अपना Visual Studio Code चैट कॉपिलट एजेंट बनाएं](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - एडवांस्ड रीजनिंग नमूने + - उन्नत तर्क नमूने - Phi-4 नमूने 🆕 - - [📓] [Phi-4-mini रीजनिंग नमूने](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - + - [📓] [Phi-4-mini-reasoning या Phi-4-reasoning नमूने](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Microsoft Olive के साथ Phi-4-mini-reasoning का फाइन-ट्यूनिंग](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Apple MLX के साथ Phi-4-mini-reasoning का फाइन-ट्यूनिंग](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [GitHub मॉडलों के साथ Phi-4-mini-reasoning](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini reasoning with Azure AI Foundry Models](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) - डेमो - - [Phi-4-mini डेमो Hugging Face Spaces पर होस्ट किए गए](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Phi-4-multimodal डेमो Hugging Face Spaces पर होस्ट किए गए](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - विज़न नमूने - - Phi-4 नमूने 🆕 - - [📓] [छवियों को पढ़ने और कोड जनरेट करने के लिए Phi-4-multimodal का उपयोग करें](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 नमूने -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [Phi-4-mini डेमो जो Hugging Face Spaces पर होस्ट किए गए हैं](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-multimodal डेमो जो Hugging Face Spaces पर होस्ट किए गए हैं](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - विज़न सैंपल्स + - Phi-4 सैंपल्स 🆕 + - [📓] [Phi-4-multimodal का उपयोग करके इमेज पढ़ना और कोड जनरेट करना](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Phi-3 / 3.5 सैंपल्स + - [📓][Phi-3-vision-इमेज टेक्स्ट से टेक्स्ट](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - विजुअल लैंग्वेज असिस्टेंट - Phi3-Vision और OpenVINO के साथ](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [📓][Phi-3-vision CLIP एम्बेडिंग](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [डेमो: Phi-3 रीसायक्लिंग](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - विज़ुअल लैंग्वेज असिस्टेंट - Phi3-Vision और OpenVINO के साथ](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - [📓][Phi-3.5 Vision मल्टी-फ्रेम या मल्टी-इमेज सैंपल](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision Local ONNX Model Microsoft.ML.OnnxRuntime .NET का उपयोग करके](../../md/04.HOL/dotnet/src/LabsPhi303) - - [मेनू आधारित Phi-3 Vision Local ONNX Model Microsoft.ML.OnnxRuntime .NET का उपयोग करके](../../md/04.HOL/dotnet/src/LabsPhi304) + - [Phi-3 Vision लोकल ONNX मॉडल माइक्रोसॉफ्ट.ML.OnnxRuntime .NET का उपयोग करके](../../md/04.HOL/dotnet/src/LabsPhi303) + - [मेनू आधारित Phi-3 Vision लोकल ONNX मॉडल माइक्रोसॉफ्ट.ML.OnnxRuntime .NET का उपयोग करके](../../md/04.HOL/dotnet/src/LabsPhi304) - - ऑडियो सैंपल - - Phi-4 सैंपल 🆕 + - ऑडियो सैंपल्स + - Phi-4 सैंपल्स 🆕 - [📓] [Phi-4-multimodal का उपयोग करके ऑडियो ट्रांसक्रिप्ट निकालना](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - [📓] [Phi-4-multimodal ऑडियो सैंपल](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - [📓] [Phi-4-multimodal स्पीच ट्रांसलेशन सैंपल](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET कंसोल एप्लिकेशन Phi-4-multimodal ऑडियो का उपयोग करके ऑडियो फाइल का विश्लेषण करने और ट्रांसक्रिप्ट बनाने के लिए](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - [.NET कंसोल एप्लिकेशन जो Phi-4-multimodal ऑडियो का उपयोग करके ऑडियो फाइल का विश्लेषण करता है और ट्रांसक्रिप्ट जनरेट करता है](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - MOE सैंपल - - Phi-3 / 3.5 सैंपल + - MOE सैंपल्स + - Phi-3 / 3.5 सैंपल्स - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) सोशल मीडिया सैंपल](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [NVIDIA NIM Phi-3 MOE, Azure AI Search, और LlamaIndex के साथ Retrieval-Augmented Generation (RAG) Pipeline बनाना](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - फंक्शन कॉलिंग सैंपल - - Phi-4 सैंपल 🆕 - - [📓] [Phi-4-mini के साथ फंक्शन कॉलिंग का उपयोग करना](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Phi-4-mini के साथ मल्टी-एजेंट बनाने के लिए फंक्शन कॉलिंग का उपयोग करना](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [Ollama के साथ फंक्शन कॉलिंग का उपयोग करना](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - मल्टीमॉडल मिक्सिंग सैंपल - - Phi-4 सैंपल 🆕 - - [📓] [Phi-4-multimodal का उपयोग टेक्नोलॉजी जर्नलिस्ट के रूप में करना](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET कंसोल एप्लिकेशन Phi-4-multimodal का उपयोग करके इमेज का विश्लेषण करने के लिए](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Phi सैंपल का फाइन-ट्यूनिंग + - [📓] [NVIDIA NIM Phi-3 MOE, Azure AI Search, और LlamaIndex के साथ Retrieval-Augmented Generation (RAG) पाइपलाइन बनाना](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - फ़ंक्शन कॉलिंग सैंपल्स + - Phi-4 सैंपल्स 🆕 + - [📓] [Phi-4-mini के साथ फ़ंक्शन कॉलिंग का उपयोग करना](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Phi-4-mini के साथ मल्टी-एजेंट्स बनाने के लिए फ़ंक्शन कॉलिंग का उपयोग करना](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Ollama के साथ फ़ंक्शन कॉलिंग का उपयोग करना](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - मल्टीमोडल मिक्सिंग सैंपल्स + - Phi-4 सैंपल्स 🆕 + - [📓] [Phi-4-multimodal का उपयोग एक टेक्नोलॉजी पत्रकार के रूप में करना](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET कंसोल एप्लिकेशन जो Phi-4-multimodal का उपयोग करके इमेजेस का विश्लेषण करता है](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- फाइन-ट्यूनिंग Phi सैंपल्स - [फाइन-ट्यूनिंग परिदृश्य](./md/03.FineTuning/FineTuning_Scenarios.md) - [फाइन-ट्यूनिंग बनाम RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [फाइन-ट्यूनिंग Phi-3 को इंडस्ट्री विशेषज्ञ बनने देना](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [Phi-3 को VS Code के AI Toolkit के साथ फाइन-ट्यून करना](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Phi-3 को Azure Machine Learning Service के साथ फाइन-ट्यून करना](./md/03.FineTuning/Introduce_AzureML.md) - - [Phi-3 को Lora के साथ फाइन-ट्यून करना](./md/03.FineTuning/FineTuning_Lora.md) - - [Phi-3 को QLora के साथ फाइन-ट्यून करना](./md/03.FineTuning/FineTuning_Qlora.md) - - [Phi-3 को Azure AI Foundry के साथ फाइन-ट्यून करना](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Phi-3 को Azure ML CLI/SDK के साथ फाइन-ट्यून करना](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Microsoft Olive के साथ फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Microsoft Olive हैंड्स-ऑन लैब के साथ फाइन-ट्यूनिंग](./md/03.FineTuning/olive-lab/readme.md) - - [Weights और Bias के साथ Phi-3-vision का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Phi-3 को इंडस्ट्री एक्सपर्ट बनने दें](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [VS कोड के लिए AI टूलकिट के साथ Phi-3 की फाइन-ट्यूनिंग](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Azure मशीन लर्निंग सर्विस के साथ Phi-3 की फाइन-ट्यूनिंग](./md/03.FineTuning/Introduce_AzureML.md) +- [Lora के साथ Phi-3 का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_Lora.md) + - [QLora के साथ Phi-3 का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_Qlora.md) + - [Azure AI Foundry के साथ Phi-3 का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Azure ML CLI/SDK के साथ Phi-3 का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Microsoft Olive के साथ फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Microsoft Olive Hands-On Lab के साथ फाइन-ट्यूनिंग](./md/03.FineTuning/olive-lab/readme.md) + - [Weights and Bias के साथ Phi-3-vision का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - [Apple MLX Framework के साथ Phi-3 का फाइन-ट्यूनिंग](./md/03.FineTuning/FineTuning_MLX.md) - [Phi-3-vision का फाइन-ट्यूनिंग (आधिकारिक समर्थन)](./md/03.FineTuning/FineTuning_Vision.md) - [Kaito AKS, Azure Containers के साथ Phi-3 का फाइन-ट्यूनिंग (आधिकारिक समर्थन)](./md/03.FineTuning/FineTuning_Kaito.md) - [Phi-3 और 3.5 Vision का फाइन-ट्यूनिंग](https://github.com/2U1/Phi3-Vision-Finetune) -- हैंड्स-ऑन लैब - - [आधुनिक मॉडल्स की खोज: LLMs, SLMs, स्थानीय विकास और अधिक](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [NLP क्षमता को अनलॉक करना: Microsoft Olive के साथ फाइन-ट्यूनिंग](https://github.com/azure/Ignite_FineTuning_workshop) +- Hands on Lab + - [आधुनिक मॉडलों की खोज: LLMs, SLMs, लोकल डेवलपमेंट और बहुत कुछ](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [NLP की संभावनाओं को खोलना: Microsoft Olive के साथ फाइन-ट्यूनिंग](https://github.com/azure/Ignite_FineTuning_workshop) -- शैक्षणिक शोध पत्र और प्रकाशन +- अकादमिक शोध पत्र और प्रकाशन - [Textbooks Are All You Need II: phi-1.5 तकनीकी रिपोर्ट](https://arxiv.org/abs/2309.05463) - - [Phi-3 तकनीकी रिपोर्ट: आपके फोन पर एक सक्षम भाषा मॉडल](https://arxiv.org/abs/2404.14219) + - [Phi-3 तकनीकी रिपोर्ट: आपके फोन पर एक शक्तिशाली भाषा मॉडल](https://arxiv.org/abs/2404.14219) - [Phi-4 तकनीकी रिपोर्ट](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini तकनीकी रिपोर्ट: Mixture-of-LoRAs के माध्यम से कॉम्पैक्ट और शक्तिशाली मल्टीमॉडल भाषा मॉडल](https://arxiv.org/abs/2503.01743) - - [वाहन में कार्य-कॉलिंग के लिए छोटे भाषा मॉडल का अनुकूलन](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) PHI-3 को मल्टीपल-चॉइस प्रश्न उत्तर देने के लिए फाइन-ट्यून करना: पद्धति, परिणाम और चुनौतियाँ](https://arxiv.org/abs/2501.01588) + - [Phi-4-Mini तकनीकी रिपोर्ट: मिश्रण-ऑफ-लोरा के जरिए कॉम्पैक्ट लेकिन शक्तिशाली मल्टीमॉडल भाषा मॉडल](https://arxiv.org/abs/2503.01743) + - [इन-व्हीकल फंक्शन-कॉलिंग के लिए छोटे भाषा मॉडलों का अनुकूलन](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) PHI-3 का मल्टीपल-चॉइस प्रश्न उत्तर के लिए फाइन-ट्यूनिंग: मेथडोलॉजी, परिणाम और चुनौतियाँ](https://arxiv.org/abs/2501.01588) + - [Phi-4-रीज़निंग तकनीकी रिपोर्ट](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-मिनी-रीज़निंग तकनीकी रिपोर्ट](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) -## Phi मॉडल्स का उपयोग करना +## Phi मॉडल्स का उपयोग ### Azure AI Foundry पर Phi -आप Microsoft Phi का उपयोग करना और अपने विभिन्न हार्डवेयर डिवाइस में एंड-टू-एंड समाधान बनाना सीख सकते हैं। Phi को अनुभव करने के लिए, मॉडल्स के साथ खेलना शुरू करें और अपने परिदृश्यों के लिए Phi को कस्टमाइज़ करें [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) का उपयोग करके। आप [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) के साथ शुरुआत करने के बारे में अधिक जान सकते हैं। +आप Microsoft Phi का उपयोग कैसे करें और अपने विभिन्न हार्डवेयर डिवाइसों में E2E समाधान कैसे बनाएं, यह सीख सकते हैं। Phi का अनुभव करने के लिए, मॉडल्स के साथ खेलना शुरू करें और अपने परिदृश्यों के अनुसार Phi को कस्टमाइज़ करें, इसके लिए आप [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) का उपयोग कर सकते हैं। अधिक जानने के लिए [Azure AI Foundry के साथ शुरुआत](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) देखें। -**प्लेग्राउंड** -प्रत्येक मॉडल का एक समर्पित प्लेग्राउंड है जहां आप मॉडल का परीक्षण कर सकते हैं [Azure AI Playground](https://aka.ms/try-phi3)। +**Playground** +प्रत्येक मॉडल के लिए एक समर्पित playground है जहाँ आप मॉडल का परीक्षण कर सकते हैं [Azure AI Playground](https://aka.ms/try-phi3)। -### GitHub Models पर Phi +### GitHub मॉडल्स पर Phi -आप Microsoft Phi का उपयोग करना और अपने विभिन्न हार्डवेयर डिवाइस में एंड-टू-एंड समाधान बनाना सीख सकते हैं। Phi को अनुभव करने के लिए, मॉडल्स के साथ खेलना शुरू करें और अपने परिदृश्यों के लिए Phi को कस्टमाइज़ करें [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) का उपयोग करके। आप [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) के साथ शुरुआत करने के बारे में अधिक जान सकते हैं। +आप Microsoft Phi का उपयोग कैसे करें और अपने विभिन्न हार्डवेयर डिवाइसों में E2E समाधान कैसे बनाएं, यह सीख सकते हैं। Phi का अनुभव करने के लिए, मॉडल के साथ खेलना शुरू करें और अपने परिदृश्यों के अनुसार Phi को कस्टमाइज़ करें, इसके लिए आप [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) का उपयोग कर सकते हैं। अधिक जानने के लिए [GitHub Model Catalog के साथ शुरुआत](/md/02.QuickStart/GitHubModel_QuickStart.md) देखें। -**प्लेग्राउंड** -प्रत्येक मॉडल का एक समर्पित [प्लेग्राउंड है जहां आप मॉडल का परीक्षण कर सकते हैं](/md/02.QuickStart/GitHubModel_QuickStart.md)। +**Playground** +प्रत्येक मॉडल के लिए एक समर्पित [playground जहाँ आप मॉडल का परीक्षण कर सकते हैं](/md/02.QuickStart/GitHubModel_QuickStart.md)। ### Hugging Face पर Phi आप मॉडल को [Hugging Face](https://huggingface.co/microsoft) पर भी पा सकते हैं। -**प्लेग्राउंड** -[Hugging Chat प्लेग्राउंड](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) +**Playground** +[Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## जिम्मेदार AI +## जिम्मेदार AI -Microsoft हमारे ग्राहकों को हमारे AI उत्पादों का जिम्मेदारी से उपयोग करने में मदद करने, हमारे अनुभव साझा करने और ट्रस्ट-आधारित साझेदारी बनाने के लिए प्रतिबद्ध है। इसके लिए Transparency Notes और Impact Assessments जैसे उपकरणों का उपयोग किया जाता है। इन संसाधनों को [https://aka.ms/RAI](https://aka.ms/RAI) पर पाया जा सकता है। Microsoft का जिम्मेदार AI के प्रति दृष्टिकोण हमारे AI सिद्धांतों पर आधारित है: निष्पक्षता, विश्वसनीयता और सुरक्षा, गोपनीयता और सुरक्षा, समावेशिता, पारदर्शिता, और जवाबदेही। +Microsoft अपने ग्राहकों को हमारे AI उत्पादों का जिम्मेदारी से उपयोग करने में मदद करने, अपने अनुभव साझा करने, और Transparency Notes और Impact Assessments जैसे उपकरणों के माध्यम से भरोसेमंद साझेदारी बनाने के लिए प्रतिबद्ध है। इन संसाधनों में से कई [https://aka.ms/RAI](https://aka.ms/RAI) पर उपलब्ध हैं। +Microsoft का जिम्मेदार AI के प्रति दृष्टिकोण हमारे AI सिद्धांतों पर आधारित है: निष्पक्षता, विश्वसनीयता और सुरक्षा, गोपनीयता और सुरक्षा, समावेशन, पारदर्शिता, और जवाबदेही। +बड़े पैमाने पर प्राकृतिक भाषा, छवि, और भाषण मॉडल - जैसे इस उदाहरण में उपयोग किए गए मॉडल - संभावित रूप से ऐसे व्यवहार कर सकते हैं जो अनुचित, अविश्वसनीय, या आपत्तिजनक हो सकते हैं, जिससे नुकसान हो सकता है। कृपया जोखिमों और सीमाओं के बारे में जानकारी के लिए [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) देखें। -बड़े पैमाने पर प्राकृतिक भाषा, छवि, और भाषण मॉडल - जैसे इस नमूने में उपयोग किए गए मॉडल - संभावित रूप से अनुचित, अविश्वसनीय, या आपत्तिजनक व्यवहार कर सकते हैं, जिससे नुकसान हो सकता है। कृपया [Azure OpenAI सेवा Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) को पढ़ें ताकि जोखिम और सीमाओं के बारे में जानकारी प्राप्त हो सके। +इन जोखिमों को कम करने के लिए अनुशंसित तरीका है कि आपकी आर्किटेक्चर में एक सुरक्षा प्रणाली शामिल हो जो हानिकारक व्यवहार का पता लगा सके और उसे रोक सके। [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) एक स्वतंत्र सुरक्षा परत प्रदान करता है, जो एप्लिकेशन और सेवाओं में उपयोगकर्ता-जनित और AI-जनित हानिकारक सामग्री का पता लगाने में सक्षम है। Azure AI Content Safety में टेक्स्ट और इमेज API शामिल हैं जो हानिकारक सामग्री का पता लगाने की अनुमति देते हैं। Azure AI Foundry के भीतर, Content Safety सेवा आपको विभिन्न प्रकार की हानिकारक सामग्री का पता लगाने के लिए नमूना कोड देखने, एक्सप्लोर करने और आज़माने की सुविधा देती है। निम्नलिखित [quickstart documentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) आपको सेवा को अनुरोध भेजने के लिए मार्गदर्शन करता है। -इन जोखिमों को कम करने के लिए अनुशंसित दृष्टिकोण यह है कि आपकी आर्किटेक्चर में एक सुरक्षा प्रणाली शामिल हो जो हानिकारक व्यवहार का पता लगा सके और उसे रोक सके। [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) एक स्वतंत्र सुरक्षा परत प्रदान करता है, जो अनुप्रयोगों और सेवाओं में हानिकारक उपयोगकर्ता-जनित और AI-जनित सामग्री का पता लगाने में सक्षम है। Azure AI Content Safety में टेक्स्ट और इमेज APIs शामिल हैं जो आपको हानिकारक सामग्री का पता लगाने की अनुमति देते हैं। Azure AI Foundry के भीतर, Content Safety सेवा आपको विभिन्न माध्यमों में हानिकारक सामग्री का पता लगाने के लिए नमूना कोड देखने, एक्सप्लोर करने और आज़माने की अनुमति देती है। निम्नलिखित [क्विकस्टार्ट दस्तावेज़](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) आपको सेवा में अनुरोध करने के लिए मार्गदर्शन देता है। +एक और पहलू जिसे ध्यान में रखना आवश्यक है, वह है समग्र एप्लिकेशन प्रदर्शन। मल्टी-मोडल और मल्टी-मॉडल एप्लिकेशन के साथ, प्रदर्शन का मतलब है कि सिस्टम आपकी और आपके उपयोगकर्ताओं की अपेक्षा के अनुसार काम करता है, जिसमें हानिकारक आउटपुट उत्पन्न न करना भी शामिल है। आपके समग्र एप्लिकेशन के प्रदर्शन का आकलन करना महत्वपूर्ण है, इसके लिए आप [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) का उपयोग कर सकते हैं। आपके पास [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) बनाने और उनका मूल्यांकन करने की भी क्षमता है। -एक अन्य पहलू जिसे ध्यान में रखना आवश्यक है वह है समग्र अनुप्रयोग प्रदर्शन। मल्टी-मॉडल और मल्टी-मोडल अनुप्रयोगों के साथ, प्रदर्शन का मतलब है कि सिस्टम आपके और आपके उपयोगकर्ताओं की अपेक्षा के अनुसार काम करता है, जिसमें हानिकारक आउटपुट न उत्पन्न करना भी शामिल है। आपके समग्र अनुप्रयोग के प्रदर्शन का आकलन करना महत्वपूर्ण है, जिसमें [Performance और Quality और Risk और Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) का उपयोग किया जाता है। आपके पास [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) बनाने और उनका मूल्यांकन करने की क्षमता भी है। -आप अपने विकास वातावरण में [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) का उपयोग करके अपने AI एप्लिकेशन का मूल्यांकन कर सकते हैं। दिए गए परीक्षण डेटा सेट या लक्ष्य के आधार पर, आपके जनरेटिव AI एप्लिकेशन की उत्पत्तियों को अंतर्निर्मित मूल्यांककों या आपके चुने हुए कस्टम मूल्यांककों के साथ मात्रात्मक रूप से मापा जाता है। अपने सिस्टम का मूल्यांकन करने के लिए Azure AI Evaluation SDK के साथ शुरुआत करने के लिए, आप [त्वरित प्रारंभ गाइड](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) का अनुसरण कर सकते हैं। एक मूल्यांकन रन निष्पादित करने के बाद, आप [Azure AI Foundry में परिणामों को विज़ुअलाइज़ कर सकते हैं](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)। +आप अपने विकास पर्यावरण में [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) का उपयोग करके अपने AI एप्लिकेशन का मूल्यांकन कर सकते हैं। चाहे आपके पास परीक्षण डेटा सेट हो या कोई लक्ष्य, आपके जनरेटिव AI एप्लिकेशन की उत्पत्तियों को अंतर्निहित या आपकी पसंद के कस्टम इवैल्युएटर्स के साथ मात्रात्मक रूप से मापा जाता है। अपने सिस्टम का मूल्यांकन करने के लिए azure ai evaluation sdk के साथ शुरुआत करने के लिए, आप [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) का पालन कर सकते हैं। एक बार जब आप मूल्यांकन रन निष्पादित कर लेते हैं, तो आप [Azure AI Foundry में परिणामों को विज़ुअलाइज़ कर सकते हैं](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)। ## ट्रेडमार्क्स -यह प्रोजेक्ट परियोजनाओं, उत्पादों, या सेवाओं के लिए ट्रेडमार्क या लोगो को शामिल कर सकता है। Microsoft ट्रेडमार्क या लोगो के अधिकृत उपयोग को [Microsoft के ट्रेडमार्क और ब्रांड दिशानिर्देशों](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) का पालन करना चाहिए। इस प्रोजेक्ट के संशोधित संस्करणों में Microsoft ट्रेडमार्क या लोगो का उपयोग भ्रम पैदा नहीं करना चाहिए या Microsoft प्रायोजन का संकेत नहीं देना चाहिए। किसी भी तृतीय-पक्ष ट्रेडमार्क या लोगो का उपयोग उन तृतीय-पक्ष की नीतियों के अधीन है। +यह प्रोजेक्ट प्रोजेक्ट्स, उत्पादों, या सेवाओं के ट्रेडमार्क या लोगो शामिल कर सकता है। Microsoft ट्रेडमार्क या लोगो के अधिकृत उपयोग के लिए [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) का पालन करना आवश्यक है। इस प्रोजेक्ट के संशोधित संस्करणों में Microsoft ट्रेडमार्क या लोगो के उपयोग से भ्रम पैदा नहीं होना चाहिए या Microsoft प्रायोजन का संकेत नहीं देना चाहिए। किसी भी तृतीय-पक्ष ट्रेडमार्क या लोगो का उपयोग संबंधित तृतीय-पक्ष की नीतियों के अधीन होता है। **अस्वीकरण**: -यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियाँ या अशुद्धियाँ हो सकती हैं। मूल दस्तावेज़, जो इसकी मूल भाषा में है, को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं। \ No newline at end of file +यह दस्तावेज़ AI अनुवाद सेवा [Co-op Translator](https://github.com/Azure/co-op-translator) का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता के लिए प्रयासरत हैं, कृपया ध्यान दें कि स्वचालित अनुवादों में त्रुटियाँ या गलतियाँ हो सकती हैं। मूल दस्तावेज़ अपनी मूल भाषा में ही अधिकारिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सलाह दी जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं। \ No newline at end of file diff --git a/translations/hk/README.md b/translations/hk/README.md index 5db2d346..0530b51b 100644 --- a/translations/hk/README.md +++ b/translations/hk/README.md @@ -1,43 +1,60 @@ -# Phi Cookbook: 微軟 Phi 模型實戰範例 +# Phi Cookbook: Microsoft Phi 模型實戰示例 -Phi 是微軟開發的一系列開源 AI 模型。 +[![Open and use the samples in GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Open in Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi 目前是最強大且具成本效益的小型語言模型 (SLM),在多語言、推理、文本/聊天生成、程式碼、圖像、音頻及其他場景中都有非常優秀的基準表現。 +[![GitHub contributors](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub issues](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub pull-requests](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -你可以將 Phi 部署到雲端或邊緣設備,並且可以在有限的計算資源下輕鬆建立生成式 AI 應用。 +[![GitHub watchers](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub stars](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) -按照以下步驟開始使用這些資源: -1. **Fork 儲存庫**:點擊 [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **Clone 儲存庫**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**加入微軟 AI Discord 社群,與專家及其他開發者交流**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -![封面](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.hk.png) +[![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi 係 Microsoft 開發嘅一系列開源 AI 模型。 + +Phi 目前係最強大同性價比最高嘅小型語言模型(SLM),喺多語言、推理、文字/聊天生成、編碼、圖像、音頻同其他場景都有好好嘅基準表現。 + +你可以將 Phi 部署喺雲端或者邊緣設備上,亦可以輕鬆用有限嘅計算資源建立生成式 AI 應用。 + +跟住以下步驟開始使用呢啲資源: +1. **Fork 個儲存庫**:Click [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **Clone 個儲存庫**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**加入 Microsoft AI Discord 社群,同專家同開發者交流**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.hk.png) ## 🌐 多語言支援 -[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文(法文)](../fa/README.md) | [烏爾都文](../ur/README.md) | [中文(簡體)](../zh/README.md) | [中文(繁體,澳門)](../mo/README.md) | [中文(繁體,香港)](./README.md) | [中文(繁體,台灣)](../tw/README.md) | [日文](../ja/README.md) | [韓文](../ko/README.md) | [印地文](../hi/README.md) | [孟加拉文](../bn/README.md) | [馬拉地文](../mr/README.md) | [尼泊爾文](../ne/README.md) | [旁遮普文(古木基文)](../pa/README.md) | [葡萄牙文(葡萄牙)](../pt/README.md) | [葡萄牙文(巴西)](../br/README.md) | [意大利文](../it/README.md) | [波蘭文](../pl/README.md) | [土耳其文](../tr/README.md) | [希臘文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麥文](../da/README.md) | [挪威文](../no/README.md) | [芬蘭文](../fi/README.md) | [荷蘭文](../nl/README.md) | [希伯來文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [馬來文](../ms/README.md) | [塔加洛文(菲律賓文)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [羅馬尼亞文](../ro/README.md) | [保加利亞文](../bg/README.md) | [塞爾維亞文(西里爾文)](../sr/README.md) | [克羅地亞文](../hr/README.md) | [斯洛文尼亞文](../sl/README.md) +[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文 (法爾西)](../fa/README.md) | [烏爾都文](../ur/README.md) | [中文 (簡體)](../zh/README.md) | [中文 (繁體,澳門)](../mo/README.md) | [中文 (繁體,香港)](./README.md) | [中文 (繁體,台灣)](../tw/README.md) | [日文](../ja/README.md) | [韓文](../ko/README.md) | [印地文](../hi/README.md) [孟加拉文](../bn/README.md) | [馬拉地文](../mr/README.md) | [尼泊爾文](../ne/README.md) | [旁遮普文 (古魯穆奇)](../pa/README.md) | [葡萄牙文 (葡萄牙)](../pt/README.md) | [葡萄牙文 (巴西)](../br/README.md) | [意大利文](../it/README.md) | [波蘭文](../pl/README.md) | [土耳其文](../tr/README.md) | [希臘文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麥文](../da/README.md) | [挪威文](../no/README.md) | [芬蘭文](../fi/README.md) | [荷蘭文](../nl/README.md) | [希伯來文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [馬來文](../ms/README.md) | [他加祿文 (菲律賓語)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [羅馬尼亞文](../ro/README.md) | [保加利亞文](../bg/README.md) | [塞爾維亞文 (西里爾字母)](../sr/README.md) | [克羅地亞文](../hr/README.md) | [斯洛維尼亞文](../sl/README.md)Please write the output from left to right. + +[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文 (法爾西)](../fa/README.md) | [烏爾都文](../ur/README.md) | [中文 (簡體)](../zh/README.md) | [中文 (繁體,澳門)](../mo/README.md) | [中文 (繁體,香港)](./README.md) | [中文 (繁體,台灣)](../tw/README.md) | [日文](../ja/README.md) | [韓文](../ko/README.md) | [印地文](../hi/README.md) [孟加拉文](../bn/README.md) | [馬拉地文](../mr/README.md) | [尼泊爾文](../ne/README.md) | [旁遮普文 (古魯穆奇)](../pa/README.md) | [葡萄牙文 (葡萄牙)](../pt/README.md) | [葡萄牙文 (巴西)](../br/README.md) | [意大利文](../it/README.md) | [波蘭文](../pl/README.md) | [土耳其文](../tr/README.md) | [希臘文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麥文](../da/README.md) | [挪威文](../no/README.md) | [芬蘭文](../fi/README.md) | [荷蘭文](../nl/README.md) | [希伯來文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [馬來文](../ms/README.md) | [他加祿文 (菲律賓語)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [羅馬尼亞文](../ro/README.md) | [保加利亞文](../bg/README.md) | [塞爾維亞文 (西里爾字母)](../sr/README.md) | [克羅地亞文](../hr/README.md) | [斯洛維尼亞文](../sl/README.md) ## 目錄 -- 簡介 +- 介紹 - [歡迎加入 Phi 家族](./md/01.Introduction/01/01.PhiFamily.md) - - [設置您的環境](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [了解關鍵技術](./md/01.Introduction/01/01.Understandingtech.md) - - [Phi 模型的 AI 安全性](./md/01.Introduction/01/01.AISafety.md) - - [Phi 硬件支持](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Phi 模型及其跨平台的可用性](./md/01.Introduction/01/01.Edgeandcloud.md) - - [使用 Guidance-ai 和 Phi](./md/01.Introduction/01/01.Guidance.md) + - [設定你的環境](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [認識主要技術](./md/01.Introduction/01/01.Understandingtech.md) + - [Phi 模型的 AI 安全](./md/01.Introduction/01/01.AISafety.md) + - [Phi 硬件支援](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Phi 模型及跨平台可用性](./md/01.Introduction/01/01.Edgeandcloud.md) + - [使用 Guidance-ai 與 Phi](./md/01.Introduction/01/01.Guidance.md) - [GitHub Marketplace 模型](https://github.com/marketplace/models) - [Azure AI 模型目錄](https://ai.azure.com) -- 在不同環境中推理 Phi +- 不同環境下的 Phi 推論 - [Hugging face](./md/01.Introduction/02/01.HF.md) - [GitHub 模型](./md/01.Introduction/02/02.GitHubModel.md) - [Azure AI Foundry 模型目錄](./md/01.Introduction/02/03.AzureAIFoundry.md) @@ -45,174 +62,179 @@ Phi 目前是最強大且具成本效益的小型語言模型 (SLM),在多語 - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) -- Phi 家族推理 - - [在 iOS 中推理 Phi](./md/01.Introduction/03/iOS_Inference.md) - - [在 Android 中推理 Phi](./md/01.Introduction/03/Android_Inference.md) - - [在 Jetson 中推理 Phi](./md/01.Introduction/03/Jetson_Inference.md) - - [在 AI PC 中推理 Phi](./md/01.Introduction/03/AIPC_Inference.md) - - [使用 Apple MLX Framework 推理 Phi](./md/01.Introduction/03/MLX_Inference.md) - - [在本地服務器中推理 Phi](./md/01.Introduction/03/Local_Server_Inference.md) - - [使用 AI Toolkit 在遠程服務器中推理 Phi](./md/01.Introduction/03/Remote_Interence.md) - - [使用 Rust 推理 Phi](./md/01.Introduction/03/Rust_Inference.md) - - [在本地推理 Phi--Vision](./md/01.Introduction/03/Vision_Inference.md) - - [使用 Kaito AKS 和 Azure Containers(官方支持)推理 Phi](./md/01.Introduction/03/Kaito_Inference.md) - +- Phi 家族的推論 + - [iOS 上的 Phi 推論](./md/01.Introduction/03/iOS_Inference.md) + - [Android 上的 Phi 推論](./md/01.Introduction/03/Android_Inference.md) + - [Jetson 上的 Phi 推論](./md/01.Introduction/03/Jetson_Inference.md) + - [AI PC 上的 Phi 推論](./md/01.Introduction/03/AIPC_Inference.md) + - [使用 Apple MLX Framework 的 Phi 推論](./md/01.Introduction/03/MLX_Inference.md) + - [本地伺服器上的 Phi 推論](./md/01.Introduction/03/Local_Server_Inference.md) + - [使用 AI Toolkit 的遠端伺服器 Phi 推論](./md/01.Introduction/03/Remote_Interence.md) + - [用 Rust 進行 Phi 推論](./md/01.Introduction/03/Rust_Inference.md) + - [本地 Phi--Vision 推論](./md/01.Introduction/03/Vision_Inference.md) + - [使用 Kaito AKS、Azure Containers(官方支援)的 Phi 推論](./md/01.Introduction/03/Kaito_Inference.md) - [Phi 家族量化](./md/01.Introduction/04/QuantifyingPhi.md) - - [使用 llama.cpp 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [使用 onnxruntime 的生成式 AI 擴展量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [使用 Intel OpenVINO 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [使用 Apple MLX Framework 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- 評估 Phi -- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry 用於評估](./md/01.Introduction/05/AIFoundry.md) - - [使用 Promptflow 進行評估](./md/01.Introduction/05/Promptflow.md) - -- RAG 與 Azure AI Search - - [如何使用 Phi-4-mini 和 Phi-4-multimodal(RAG) 配合 Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - -- Phi 應用開發範例 - - 文本與聊天應用 - - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-mini ONNX 模型進行聊天](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [使用 Phi-4 本地 ONNX 模型 .NET 進行聊天](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [使用 Semantic Kernel 和 Phi-4 ONNX 的聊天 .NET 控制台應用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - - Phi-3 / 3.5 範例 - - [使用 Phi3、ONNX Runtime Web 和 WebGPU 在瀏覽器中創建本地聊天機器人](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [OpenVino 聊天](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [多模型 - 交互式 Phi-3-mini 和 OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - 構建封裝並使用 Phi-3 配合 MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [模型優化 - 如何使用 Olive 優化 Phi-3-mini 模型以配合 ONNX Runtime Web](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [WinUI3 應用使用 Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 多模型 AI 驅動筆記應用範例](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [微調並整合自定義 Phi-3 模型配合 Promptflow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [微調並整合自定義 Phi-3 模型配合 Azure AI Foundry 的 Promptflow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [在 Azure AI Foundry 中評估微調的 Phi-3 / Phi-3.5 模型,專注於 Microsoft 的負責任 AI 原則](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct 語言預測範例(中文/英文)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Phi-3.5-Instruct WebGPU RAG 聊天機器人](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [使用 Windows GPU 創建 Phi-3.5-Instruct ONNX 的 Promptflow 解決方案](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [使用 Microsoft Phi-3.5 tflite 創建 Android 應用](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [使用本地 ONNX Phi-3 模型和 Microsoft.ML.OnnxRuntime 的 Q&A .NET 範例](../../md/04.HOL/dotnet/src/LabsPhi301) - - [使用 Semantic Kernel 和 Phi-3 的聊天 .NET 控制台應用](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Azure AI Inference SDK 基於代碼的範例 - - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-multimodal 生成項目代碼](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - - Phi-3 / 3.5 範例 - - [使用 Microsoft Phi-3 系列創建自己的 Visual Studio Code GitHub Copilot 聊天](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [使用 Phi-3.5 和 GitHub 模型創建自己的 Visual Studio Code 聊天 Copilot 代理](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - - 高級推理範例 - - Phi-4 範例 🆕 - - [📓] [Phi-4-mini 推理範例](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - 演示 - - [Phi-4-mini 演示託管於 Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Phi-4-multimodal 演示託管於 Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - 視覺範例 - - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-multimodal 讀取圖像並生成代碼](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 範例 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [用 llama.cpp 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [用 onnxruntime 的生成式 AI 擴展量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [用 Intel OpenVINO 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [用 Apple MLX Framework 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Phi 評估 +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) + +- RAG 同 Azure AI Search + - [點用 Phi-4-mini 同 Phi-4-multimodal(RAG) 配合 Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + +- Phi 應用開發範例 + - 文字同聊天應用 + - Phi-4 範例 🆕 + - [📓] [用 Phi-4-mini ONNX 模型聊天](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [用 Phi-4 本地 ONNX 模型聊天 .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [用 Semantic Kernel 同 Phi-4 ONNX 做 .NET Console App 聊天](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - Phi-3 / 3.5 範例 + - [用 Phi3、ONNX Runtime Web 同 WebGPU 喺瀏覽器做本地聊天機械人](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVino 聊天](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [多模型互動 - Phi-3-mini 同 OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - 建立包裝器同用 Phi-3 配合 MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [模型優化 - 點樣用 Olive 優化 Phi-3-mini 模型配 ONNX Runtime Web](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [WinUI3 App 配合 Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + -[WinUI3 多模型 AI 助力筆記 App 範例](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [微調同整合自訂 Phi-3 模型配 Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [喺 Azure AI Foundry 用 Prompt flow 微調同整合自訂 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [評估微調咗嘅 Phi-3 / Phi-3.5 模型喺 Azure AI Foundry,專注 Microsoft 嘅 Responsible AI 原則](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct 語言預測範例(中文/英文)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Phi-3.5-Instruct WebGPU RAG 聊天機械人](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [用 Windows GPU 配合 Phi-3.5-Instruct ONNX 做 Prompt flow 解決方案](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [用 Microsoft Phi-3.5 tflite 做 Android app](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Q&A .NET 範例,用本地 ONNX Phi-3 模型同 Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [用 Semantic Kernel 同 Phi-3 做 Console chat .NET app](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Azure AI Inference SDK 代碼範例 + - Phi-4 範例 🆕 + - [📓] [用 Phi-4-multimodal 生成項目代碼](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - Phi-3 / 3.5 範例 + - [用 Microsoft Phi-3 家族喺 Visual Studio Code 搭建 GitHub Copilot Chat](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [用 Phi-3.5 同 GitHub 模型喺 Visual Studio Code 搭建 Chat Copilot Agent](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + + - 進階推理範例 + - Phi-4 範例 🆕 + - [📓] [Phi-4-mini-reasoning 或 Phi-4-reasoning 範例](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [用 Microsoft Olive 微調 Phi-4-mini-reasoning](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [用 Apple MLX 微調 Phi-4-mini-reasoning](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning 同 GitHub 模型](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini 用 Azure AI Foundry Models 推理](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - 示範 + - [Phi-4-mini 示範喺 Hugging Face Spaces 上](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-multimodal 示範喺 Hugging Face Spaces 上](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - 視覺範例 + - Phi-4 範例 🆕 + - [📓] [用 Phi-4-multimodal 讀圖同產生代碼](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Phi-3 / 3.5 範例 + - [📓][Phi-3-vision 圖像文字轉文字](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - 視覺語言助手 - 使用 Phi3-Vision 同 OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [📓][Phi-3-vision CLIP 嵌入](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [示範: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - 視覺語言助理 - 用 Phi3-Vision 同 OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision 多幀或者多圖片示例](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [基於選單嘅 Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - - 音頻示例 - - Phi-4 示例 🆕 - - [📓] [使用 Phi-4-multimodal 提取音頻文本](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Phi-4-multimodal 音頻示例](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Phi-4-multimodal 語音翻譯示例](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET 控制台應用,使用 Phi-4-multimodal 分析音頻文件並生成文本](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - - MOE 示例 - - Phi-3 / 3.5 示例 - - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) 社交媒體示例](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [用 NVIDIA NIM Phi-3 MOE、Azure AI Search 同 LlamaIndex 構建檢索增強生成 (RAG) 流程](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - 函數調用示例 - - Phi-4 示例 🆕 - - [📓] [使用 Phi-4-mini 進行函數調用](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [使用函數調用創建多代理人,使用 Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [使用函數調用同 Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - 多模態混合示例 - - Phi-4 示例 🆕 - - [📓] [使用 Phi-4-multimodal 作為科技記者](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET 控制台應用,使用 Phi-4-multimodal 分析圖片](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Phi 微調示例 + - [📓][Phi-3.5 Vision 多幀或多圖像範例](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Phi-3 Vision 本地 ONNX 模型 用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [菜單式 Phi-3 Vision 本地 ONNX 模型 用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + + - 音頻範例 + - Phi-4 範例 🆕 + - [📓] [用 Phi-4-multimodal 摘錄音頻文字稿](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Phi-4-multimodal 音頻範例](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Phi-4-multimodal 語音翻譯範例](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [.NET 控制台應用程式 用 Phi-4-multimodal 音頻分析音頻文件同產生文字稿](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + + - MOE 範例 + - Phi-3 / 3.5 範例 + - [📓] [Phi-3.5 混合專家模型 (MoEs) 社交媒體範例](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [用 NVIDIA NIM Phi-3 MOE、Azure AI Search 同 LlamaIndex 建 Retrieval-Augmented Generation (RAG) 流程](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - 函數調用範例 + - Phi-4 範例 🆕 + - [📓] [用 Function Calling 同 Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [用 Function Calling 建立多代理同 Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [用 Function Calling 同 Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - 多模態混合範例 + - Phi-4 範例 🆕 + - [📓] [用 Phi-4-multimodal 做科技記者](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET 控制台應用程式 用 Phi-4-multimodal 分析圖像](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Phi 微調範例 - [微調場景](./md/03.FineTuning/FineTuning_Scenarios.md) - [微調 vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [微調 Phi-3 成為行業專家](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [使用 AI Toolkit for VS Code 微調 Phi-3](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [使用 Azure Machine Learning Service 微調 Phi-3](./md/03.FineTuning/Introduce_AzureML.md) - - [使用 Lora 微調 Phi-3](./md/03.FineTuning/FineTuning_Lora.md) - - [使用 QLora 微調 Phi-3](./md/03.FineTuning/FineTuning_Qlora.md) - - [使用 Azure AI Foundry 微調 Phi-3](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [使用 Azure ML CLI/SDK 微調 Phi-3](./md/03.FineTuning/FineTuning_MLSDK.md) -- [使用 Microsoft Olive 進行微調](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Microsoft Olive 微調實操實驗室](./md/03.FineTuning/olive-lab/readme.md) - - [使用 Weights and Bias 微調 Phi-3-vision](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [使用 Apple MLX 框架微調 Phi-3](./md/03.FineTuning/FineTuning_MLX.md) - - [微調 Phi-3-vision(官方支持)](./md/03.FineTuning/FineTuning_Vision.md) - - [使用 Kaito AKS 和 Azure Containers 微調 Phi-3(官方支持)](./md/03.FineTuning/FineTuning_Kaito.md) - - [微調 Phi-3 和 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - -- 實操實驗室 + - [微調令 Phi-3 成為行業專家](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [用 AI Toolkit for VS Code 微調 Phi-3](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [用 Azure Machine Learning Service 微調 Phi-3](./md/03.FineTuning/Introduce_AzureML.md) +- [用 Lora 微調 Phi-3](./md/03.FineTuning/FineTuning_Lora.md) + - [用 QLora 微調 Phi-3](./md/03.FineTuning/FineTuning_Qlora.md) + - [用 Azure AI Foundry 微調 Phi-3](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [用 Azure ML CLI/SDK 微調 Phi-3](./md/03.FineTuning/FineTuning_MLSDK.md) + - [用 Microsoft Olive 微調](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Microsoft Olive 實作工作坊微調](./md/03.FineTuning/olive-lab/readme.md) + - [用 Weights and Bias 微調 Phi-3-vision](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [用 Apple MLX Framework 微調 Phi-3](./md/03.FineTuning/FineTuning_MLX.md) + - [Phi-3-vision 微調(官方支援)](./md/03.FineTuning/FineTuning_Vision.md) + - [用 Kaito AKS、Azure Containers 微調 Phi-3(官方支援)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Phi-3 及 3.5 Vision 微調](https://github.com/2U1/Phi3-Vision-Finetune) + +- 實作工作坊 - [探索前沿模型:LLMs、SLMs、本地開發等](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [解鎖 NLP 潛力:使用 Microsoft Olive 進行微調](https://github.com/azure/Ignite_FineTuning_workshop) + - [發掘 NLP 潛力:用 Microsoft Olive 微調](https://github.com/azure/Ignite_FineTuning_workshop) - 學術研究論文及出版物 - - [Textbooks Are All You Need II: phi-1.5 技術報告](https://arxiv.org/abs/2309.05463) - - [Phi-3 技術報告:高效的語言模型可在手機本地運行](https://arxiv.org/abs/2404.14219) + - [Textbooks Are All You Need II:phi-1.5 技術報告](https://arxiv.org/abs/2309.05463) + - [Phi-3 技術報告:一個能在手機本地運行的高效能語言模型](https://arxiv.org/abs/2404.14219) - [Phi-4 技術報告](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini 技術報告:通過 LoRA 混合構建緊湊但強大的多模態語言模型](https://arxiv.org/abs/2503.01743) - - [優化小型語言模型以支持車內功能調用](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) 微調 PHI-3 以應對多選題回答:方法論、結果及挑戰](https://arxiv.org/abs/2501.01588) + - [Phi-4-Mini 技術報告:透過 Mixture-of-LoRAs 打造緊湊但強大的多模態語言模型](https://arxiv.org/abs/2503.01743) + - [優化車載功能調用用的小型語言模型](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) 微調 PHI-3 用於多項選擇題答題:方法、結果及挑戰](https://arxiv.org/abs/2501.01588) + - [Phi-4 推理技術報告](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini 推理技術報告](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) ## 使用 Phi 模型 ### Phi 在 Azure AI Foundry -您可以學習如何使用 Microsoft Phi,並在不同硬件設備上構建端到端解決方案。若要親身體驗 Phi,請從測試模型並根據您的場景定制 Phi 開始,使用 [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai)。您可以在 [Azure AI Foundry 快速入門](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) 中了解更多。 +你可以學習如何使用 Microsoft Phi,並在不同硬件裝置上打造端對端解決方案。想親身體驗 Phi,可以先從試玩模型開始,並透過 [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) 為你的場景定制 Phi。更多詳情請參考[Azure AI Foundry 入門指南](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) -**Playground** -每個模型都有專屬的 Playground 來測試模型 [Azure AI Playground](https://aka.ms/try-phi3)。 +**遊樂場** +每個模型都有專屬的遊樂場讓你測試模型,[Azure AI Playground](https://aka.ms/try-phi3)。 ### Phi 在 GitHub 模型 -您可以學習如何使用 Microsoft Phi,並在不同硬件設備上構建端到端解決方案。若要親身體驗 Phi,請從測試模型並根據您的場景定制 Phi 開始,使用 [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo)。您可以在 [GitHub Model Catalog 快速入門](/md/02.QuickStart/GitHubModel_QuickStart.md) 中了解更多。 +你可以學習如何使用 Microsoft Phi,並在不同硬件裝置上打造端對端解決方案。想親身體驗 Phi,可以先從試玩模型開始,並透過 [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) 為你的場景定制 Phi。更多詳情請參考[GitHub Model Catalog 入門指南](/md/02.QuickStart/GitHubModel_QuickStart.md) -**Playground** -每個模型都有專屬的 [Playground 測試模型](/md/02.QuickStart/GitHubModel_QuickStart.md)。 +**遊樂場** +每個模型都有專屬的[遊樂場讓你測試模型](/md/02.QuickStart/GitHubModel_QuickStart.md)。 ### Phi 在 Hugging Face -您也可以在 [Hugging Face](https://huggingface.co/microsoft) 上找到模型。 +你也可以在 [Hugging Face](https://huggingface.co/microsoft) 找到這些模型。 -**Playground** - [Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) +**遊樂場** +[Hugging Chat 遊樂場](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## 負責任的 AI +## 負責任的 AI -Microsoft 致力於幫助客戶負責任地使用我們的 AI 產品,分享我們的經驗,並通過透明性說明和影響評估等工具建立基於信任的合作關係。許多資源可以在 [https://aka.ms/RAI](https://aka.ms/RAI) 找到。 -Microsoft 的負責任 AI 方法基於我們的 AI 原則:公平性、可靠性和安全性、隱私和安全性、包容性、透明性以及問責制。 +Microsoft 致力協助客戶負責任地使用我們的 AI 產品,分享我們的經驗,並透過 Transparency Notes 及 Impact Assessments 等工具建立基於信任的合作關係。這些資源大多可以在 [https://aka.ms/RAI](https://aka.ms/RAI) 找到。 +Microsoft 的負責任 AI 方針根植於我們的 AI 原則:公平性、可靠性與安全性、私隱與安全、包容性、透明度及問責制。 +大型自然語言、圖像及語音模型——例如本範例中使用的模型——可能會出現不公平、不可靠或冒犯性的行為,從而造成傷害。請參閱 [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) 了解相關風險及限制。 -大型自然語言、圖像和語音模型(例如此示例中使用的模型)可能會以不公平、不可靠或冒犯的方式表現,進而導致傷害。請參考 [Azure OpenAI 服務透明性說明](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) 了解相關風險和限制。 +建議採用的方法是於系統架構中加入安全機制,以偵測及防止有害行為。[Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) 提供獨立的保護層,能夠偵測應用程式及服務中使用者產生及 AI 產生的有害內容。Azure AI Content Safety 包含文字及圖像 API,方便你偵測有害資料。在 Azure AI Foundry 中,Content Safety 服務讓你檢視、探索及試用偵測不同模態有害內容的範例程式碼。以下的 [quickstart documentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) 將指引你如何向服務發出請求。 -建議的風險緩解方法是在您的架構中加入安全系統,該系統能檢測並防止有害行為。[Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) 提供了獨立的保護層,可以檢測應用和服務中的用戶生成內容及 AI 生成內容是否有害。Azure AI Content Safety 包括文本和圖像 API,能幫助您檢測有害材料。在 Azure AI Foundry 中,Content Safety 服務允許您查看、探索和試用示例代碼以檢測不同模式下的有害內容。以下 [快速入門文檔](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) 將指導您如何向服務發送請求。 +另一個需要考慮的方面是整體應用程式的效能。對於多模態及多模型應用,我們認為效能是指系統能如你及用戶所期望般運作,包括不產生有害輸出。評估整體應用程式效能時,建議使用 [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)。你亦可以使用 [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) 自行建立及評估。 -另一個需要考慮的方面是整體應用性能。對於多模態和多模型應用,我們認為性能是指系統能如您和您的用戶所期望地運行,包括不生成有害輸出。評估整體應用性能時,請使用 [Performance and Quality 和 Risk and Safety 評估工具](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)。此外,您還可以創建和使用 [自定義評估工具](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)。 -你可以在你的開發環境中使用 [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) 來評估你的 AI 應用程式。無論是測試數據集還是目標,你的生成式 AI 應用程式的生成結果都可以通過內建的評估器或你選擇的自訂評估器進行量化測量。要開始使用 Azure AI Evaluation SDK 來評估你的系統,可以參考 [快速入門指南](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)。執行評估後,你可以在 [Azure AI Foundry 中視覺化結果](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)。 +你可以在開發環境中使用 [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) 評估你的 AI 應用程式。無論是測試資料集或目標,你的生成式 AI 產出都會透過內建或自訂評估器進行量化測量。要開始使用 azure ai evaluation sdk 評估系統,可以參考 [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)。執行評估後,你可以在 [Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results) 觀看結果視覺化。 ## 商標 -這個專案可能包含與專案、產品或服務相關的商標或標誌。授權使用 Microsoft 商標或標誌必須遵守並符合 [Microsoft 的商標與品牌指南](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)。在修改版本的專案中使用 Microsoft 商標或標誌不得造成混淆或暗示 Microsoft 的贊助。任何第三方商標或標誌的使用需遵守該第三方的政策。 +本專案可能包含專案、產品或服務的商標或標誌。授權使用 Microsoft 商標或標誌須遵守並符合 [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)。 +在本專案修改版本中使用 Microsoft 商標或標誌,不得引起混淆或暗示 Microsoft 贊助。第三方商標或標誌的使用須遵守該第三方的政策。 **免責聲明**: -本文檔已使用AI翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 進行翻譯。雖然我們致力於提供準確的翻譯,但請注意,自動翻譯可能包含錯誤或不準確之處。原始語言的文件應被視為權威來源。對於關鍵信息,建議使用專業人工翻譯。我們對因使用此翻譯而產生的任何誤解或錯誤解釋不承擔責任。 \ No newline at end of file +本文件係用 AI 翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 翻譯而成。雖然我哋致力確保準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。原始文件嘅母語版本應被視為權威來源。對於重要資料,建議採用專業人工翻譯。因使用本翻譯而引致嘅任何誤解或誤譯,我哋概不負責。 \ No newline at end of file diff --git a/translations/ja/README.md b/translations/ja/README.md index c688825f..7886a754 100644 --- a/translations/ja/README.md +++ b/translations/ja/README.md @@ -1,57 +1,57 @@ # Phi Cookbook: MicrosoftのPhiモデルを使った実践例 -[![Open and use the samples in GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) -[![Open in Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) +[![GitHub Codespacesでサンプルを開いて使う](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Dev Containersで開く](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -[![GitHub contributors](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub issues](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub pull-requests](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) -[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) +[![GitHubのコントリビューター](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHubの課題](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHubのプルリクエスト](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PR歓迎](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub watchers](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub stars](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHubのウォッチャー](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHubのフォーク](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHubのスター](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) [![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) PhiはMicrosoftが開発したオープンソースのAIモデルシリーズです。 -Phiは現在、最も強力かつコストパフォーマンスの高い小型言語モデル(SLM)であり、多言語対応、推論、テキスト/チャット生成、コーディング、画像、音声などのシナリオで非常に優れたベンチマークを持っています。 +Phiは現在、最も強力でコストパフォーマンスに優れた小型言語モデル(SLM)であり、多言語対応、推論、テキスト/チャット生成、コーディング、画像、音声など様々なシナリオで高いベンチマークを誇ります。 -Phiはクラウドやエッジデバイスにデプロイ可能で、限られたコンピューティングリソースでも簡単に生成AIアプリケーションを構築できます。 +Phiはクラウドやエッジデバイスにデプロイ可能で、限られた計算資源でも簡単に生成AIアプリケーションを構築できます。 -これらのリソースを使い始めるためのステップは以下の通りです: -1. **リポジトリをフォークする**: [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) をクリックしてください。 -2. **リポジトリをクローンする**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Microsoft AI Discordコミュニティに参加し、専門家や他の開発者と交流する**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +以下の手順でこれらのリソースを使い始めましょう: +1. **リポジトリをフォークする**: クリック [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **リポジトリをクローンする**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**Microsoft AI Discordコミュニティに参加して、専門家や開発者仲間と交流する**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.ja.png) ## 🌐 多言語対応 -[フランス語](../fr/README.md) | [スペイン語](../es/README.md) | [ドイツ語](../de/README.md) | [ロシア語](../ru/README.md) | [アラビア語](../ar/README.md) | [ペルシア語 (ファルシ)](../fa/README.md) | [ウルドゥー語](../ur/README.md) | [中国語 (簡体字)](../zh/README.md) | [中国語 (繁体字, マカオ)](../mo/README.md) | [中国語 (繁体字, 香港)](../hk/README.md) | [中国語 (繁体字, 台湾)](../tw/README.md) | [日本語](./README.md) | [韓国語](../ko/README.md) | [ヒンディー語](../hi/README.md) | [ベンガル語](../bn/README.md) | [マラーティー語](../mr/README.md) | [ネパール語](../ne/README.md) | [パンジャーブ語 (グルムキー)](../pa/README.md) | [ポルトガル語 (ポルトガル)](../pt/README.md) | [ポルトガル語 (ブラジル)](../br/README.md) | [イタリア語](../it/README.md) | [ポーランド語](../pl/README.md) | [トルコ語](../tr/README.md) | [ギリシャ語](../el/README.md) | [タイ語](../th/README.md) | [スウェーデン語](../sv/README.md) | [デンマーク語](../da/README.md) | [ノルウェー語](../no/README.md) | [フィンランド語](../fi/README.md) | [オランダ語](../nl/README.md) | [ヘブライ語](../he/README.md) | [ベトナム語](../vi/README.md) | [インドネシア語](../id/README.md) | [マレー語](../ms/README.md) | [タガログ語 (フィリピン語)](../tl/README.md) | [スワヒリ語](../sw/README.md) | [ハンガリー語](../hu/README.md) | [チェコ語](../cs/README.md) | [スロバキア語](../sk/README.md) | [ルーマニア語](../ro/README.md) | [ブルガリア語](../bg/README.md) | [セルビア語 (キリル文字)](../sr/README.md) | [クロアチア語](../hr/README.md) | [スロベニア語](../sl/README.md) +[フランス語](../fr/README.md) | [スペイン語](../es/README.md) | [ドイツ語](../de/README.md) | [ロシア語](../ru/README.md) | [アラビア語](../ar/README.md) | [ペルシャ語 (ファルシ)](../fa/README.md) | [ウルドゥー語](../ur/README.md) | [中国語(簡体字)](../zh/README.md) | [中国語(繁体字、マカオ)](../mo/README.md) | [中国語(繁体字、香港)](../hk/README.md) | [中国語(繁体字、台湾)](../tw/README.md) | [日本語](./README.md) | [韓国語](../ko/README.md) | [ヒンディー語](../hi/README.md) [ベンガル語](../bn/README.md) | [マラーティー語](../mr/README.md) | [ネパール語](../ne/README.md) | [パンジャブ語(グルムキー)](../pa/README.md) | [ポルトガル語(ポルトガル)](../pt/README.md) | [ポルトガル語(ブラジル)](../br/README.md) | [イタリア語](../it/README.md) | [ポーランド語](../pl/README.md) | [トルコ語](../tr/README.md) | [ギリシャ語](../el/README.md) | [タイ語](../th/README.md) | [スウェーデン語](../sv/README.md) | [デンマーク語](../da/README.md) | [ノルウェー語](../no/README.md) | [フィンランド語](../fi/README.md) | [オランダ語](../nl/README.md) | [ヘブライ語](../he/README.md) | [ベトナム語](../vi/README.md) | [インドネシア語](../id/README.md) | [マレー語](../ms/README.md) | [タガログ語(フィリピン)](../tl/README.md) | [スワヒリ語](../sw/README.md) | [ハンガリー語](../hu/README.md) | [チェコ語](../cs/README.md) | [スロバキア語](../sk/README.md) | [ルーマニア語](../ro/README.md) | [ブルガリア語](../bg/README.md) | [セルビア語(キリル文字)](../sr/README.md) | [クロアチア語](../hr/README.md) | [スロベニア語](../sl/README.md) ## 目次 - はじめに - [Phiファミリーへようこそ](./md/01.Introduction/01/01.PhiFamily.md) - - [環境のセットアップ](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [環境設定](./md/01.Introduction/01/01.EnvironmentSetup.md) - [主要技術の理解](./md/01.Introduction/01/01.Understandingtech.md) - [PhiモデルのAI安全性](./md/01.Introduction/01/01.AISafety.md) - - [Phiハードウェアのサポート](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Phiモデルとプラットフォーム間の利用可能性](./md/01.Introduction/01/01.Edgeandcloud.md) - - [Guidance-aiとPhiの利用](./md/01.Introduction/01/01.Guidance.md) + - [Phiハードウェアサポート](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Phiモデルとプラットフォーム別の利用可能性](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Guidance-aiとPhiの使い方](./md/01.Introduction/01/01.Guidance.md) - [GitHubマーケットプレイスモデル](https://github.com/marketplace/models) - [Azure AIモデルカタログ](https://ai.azure.com) -- 異なる環境でのPhi推論 +- さまざまな環境でのPhi推論 - [Hugging face](./md/01.Introduction/02/01.HF.md) - [GitHubモデル](./md/01.Introduction/02/02.GitHubModel.md) - [Azure AI Foundryモデルカタログ](./md/01.Introduction/02/03.AzureAIFoundry.md) @@ -64,170 +64,173 @@ Phiはクラウドやエッジデバイスにデプロイ可能で、限られ - [AndroidでのPhi推論](./md/01.Introduction/03/Android_Inference.md) - [JetsonでのPhi推論](./md/01.Introduction/03/Jetson_Inference.md) - [AI PCでのPhi推論](./md/01.Introduction/03/AIPC_Inference.md) - - [Apple MLXフレームワークを使用したPhi推論](./md/01.Introduction/03/MLX_Inference.md) + - [Apple MLXフレームワークでのPhi推論](./md/01.Introduction/03/MLX_Inference.md) - [ローカルサーバーでのPhi推論](./md/01.Introduction/03/Local_Server_Inference.md) - - [AI Toolkitを使用したリモートサーバーでのPhi推論](./md/01.Introduction/03/Remote_Interence.md) - - [Rustを使用したPhi推論](./md/01.Introduction/03/Rust_Inference.md) - - [ローカル環境でのPhi-Vision推論](./md/01.Introduction/03/Vision_Inference.md) - - [Kaito AKS、Azure Containers(公式サポート)を使用したPhi推論](./md/01.Introduction/03/Kaito_Inference.md) + - [AI Toolkitを使ったリモートサーバーでのPhi推論](./md/01.Introduction/03/Remote_Interence.md) + - [RustでのPhi推論](./md/01.Introduction/03/Rust_Inference.md) + - [ローカルでのPhi--Vision推論](./md/01.Introduction/03/Vision_Inference.md) + - [Kaito AKS、Azureコンテナ(公式サポート)でのPhi推論](./md/01.Introduction/03/Kaito_Inference.md) - [Phiファミリーの量子化](./md/01.Introduction/04/QuantifyingPhi.md) - - [llama.cppを使用したPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [onnxruntime用生成AI拡張機能を使用したPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [Intel OpenVINOを使用したPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Apple MLXフレームワークを使用したPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- Phiの評価 -- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundryによる評価](./md/01.Introduction/05/AIFoundry.md) - - [Promptflowを使用した評価](./md/01.Introduction/05/Promptflow.md) - -- Azure AI Searchを使用したRAG - - [Phi-4-miniとPhi-4-multimodal(RAG)をAzure AI Searchで使用する方法](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - -- Phiアプリケーション開発サンプル - - テキスト&チャットアプリケーション - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-mini ONNXモデルでチャット](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Phi-4ローカルONNXモデル.NETでチャット](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Semantic Kernelを使用したPhi-4 ONNXによる.NETコンソールチャットアプリ](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - - Phi-3 / 3.5 サンプル - - [Phi3、ONNX Runtime Web、WebGPUを使用したブラウザ内ローカルチャットボット](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [OpenVino Chat](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [複数モデル - Phi-3-miniとOpenAI Whisperのインタラクティブサンプル](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - ラッパーの構築とPhi-3をMLFlowで使用する方法](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [モデル最適化 - Oliveを使用してPhi-3-minモデルをONNX Runtime Web用に最適化する方法](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [Phi-3 mini-4k-instruct-onnxを使用したWinUI3アプリ](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3複数モデルAI対応ノートアプリサンプル](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [カスタムPhi-3モデルを微調整しPromptflowと統合する方法](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Azure AI FoundryでカスタムPhi-3モデルを微調整しPromptflowと統合する方法](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Microsoftの責任あるAI原則に基づいて微調整されたPhi-3 / Phi-3.5モデルをAzure AI Foundryで評価する方法](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct 言語予測サンプル(中国語/英語)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Phi-3.5-Instruct WebGPU RAG チャットボット](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Windows GPUを使用してPhi-3.5-Instruct ONNXでPromptflowソリューションを作成する方法](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [Microsoft Phi-3.5 tfliteを使用してAndroidアプリを作成する方法](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Microsoft.ML.OnnxRuntimeを使用してローカルONNX Phi-3モデルでQ&A .NETサンプルを作成する方法](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Semantic KernelとPhi-3を使用した.NETコンソールチャットアプリ](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Azure AI推論SDKコードベースサンプル - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-multimodalを使用したプロジェクトコード生成](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - - Phi-3 / 3.5 サンプル - - [Microsoft Phi-3ファミリーを使用して独自のVisual Studio Code GitHub Copilot Chatを構築する方法](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [Phi-3.5を使用してGitHubモデルで独自のVisual Studio Code Chat Copilot Agentを作成する方法](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - - 高度な推論サンプル - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-mini 推論サンプル](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - デモ - - [Hugging Face SpacesでホストされているPhi-4-miniデモ](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Hugging Face SpacesでホストされているPhi-4-multimodalデモ](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - ビジョンサンプル - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-multimodalを使用して画像を読み取りコードを生成する](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 サンプル -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - 視覚言語アシスタント - Phi3-VisionとOpenVINOを使用](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision 複数フレームまたは複数画像サンプル](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision Local ONNX Model using the Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [メニュー方式 Phi-3 Vision Local ONNX Model using the Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - -- 音声サンプル - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-multimodalを使用した音声トランスクリプトの抽出](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Phi-4-multimodal 音声サンプル](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Phi-4-multimodal 音声翻訳サンプル](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NETコンソールアプリケーションを使用してPhi-4-multimodal Audioで音声ファイルを分析し、トランスクリプトを生成](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - -- MOEサンプル - - Phi-3 / 3.5 サンプル - - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) ソーシャルメディアサンプル](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [NVIDIA NIM Phi-3 MOE、Azure AI Search、LlamaIndexを使用したRetrieval-Augmented Generation (RAG) パイプラインの構築](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - -- 関数呼び出しサンプル - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-miniを使用した関数呼び出し](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Phi-4-miniを使用してマルチエージェントを作成する関数呼び出し](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [Ollamaを使用した関数呼び出し](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - -- マルチモーダルミキシングサンプル - - Phi-4 サンプル 🆕 - - [📓] [Phi-4-multimodalを技術ジャーナリストとして使用](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NETコンソールアプリケーションを使用してPhi-4-multimodalで画像を分析](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Phiのファインチューニングサンプル + - [llama.cppを使ったPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [onnxruntimeのGenerative AI拡張を使ったPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Intel OpenVINOを使ったPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Apple MLXフレームワークを使ったPhi-3.5 / 4の量子化](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Phiの評価 +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) + +- Azure AI Searchを使ったRAG + - [Azure AI SearchでPhi-4-miniとPhi-4-multimodal(RAG)を使う方法](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + +- Phiアプリケーション開発サンプル + - テキスト&チャットアプリケーション + - Phi-4サンプル 🆕 + - [📓] [Phi-4-mini ONNXモデルとのチャット](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [Phi-4ローカルONNXモデルとのチャット .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Semantic Kernelを使ったPhi-4 ONNXによる.NETコンソールチャットアプリ](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - Phi-3 / 3.5サンプル + - [ブラウザでのローカルチャットボット(Phi3、ONNX Runtime Web、WebGPU使用)](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVinoチャット](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [マルチモデル - Phi-3-miniとOpenAI Whisperのインタラクティブ連携](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - ラッパー作成とPhi-3のMLFlow利用](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [モデル最適化 - Oliveを使ったONNX Runtime Web向けPhi-3-miniモデルの最適化方法](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [Phi-3 mini-4k-instruct-onnxを使ったWinUI3アプリ](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + - [WinUI3マルチモデルAI搭載ノートアプリサンプル](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [カスタムPhi-3モデルのファインチューニングとPrompt flowとの統合](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Azure AI FoundryでのカスタムPhi-3モデルのファインチューニングとPrompt flow統合](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [MicrosoftのResponsible AI原則に注目したAzure AI Foundryでのファインチューニング済みPhi-3 / Phi-3.5モデルの評価](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct言語予測サンプル(中国語/英語)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Phi-3.5-Instruct WebGPU RAGチャットボット](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [Windows GPUを使ったPhi-3.5-Instruct ONNXのPrompt flowソリューション作成](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Microsoft Phi-3.5 tfliteを使ったAndroidアプリ作成](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Microsoft.ML.OnnxRuntimeを使ったローカルONNX Phi-3モデルによるQ&A .NET例](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Semantic KernelとPhi-3を使ったコンソールチャット.NETアプリ](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Azure AI Inference SDKコードベースサンプル + - Phi-4サンプル 🆕 + - [📓] [Phi-4-multimodalを使ったプロジェクトコード生成](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - Phi-3 / 3.5サンプル + - [Microsoft Phi-3ファミリーを使ったVisual Studio Code GitHub Copilot Chatの構築](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [GitHubモデルでPhi-3.5を使ったVisual Studio Codeチャットコパイロットエージェントの作成](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + + - 高度な推論サンプル + - Phi-4サンプル 🆕 + - [📓] [Phi-4-mini-reasoningまたはPhi-4-reasoningサンプル](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Microsoft Oliveを使ったPhi-4-mini-reasoningのファインチューニング](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Apple MLXを使ったPhi-4-mini-reasoningのファインチューニング](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [GitHubモデルを使ったPhi-4-mini-reasoning](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Azure AI Foundry Modelsを使ったPhi-4-mini推論](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - デモ + - [Hugging Face SpacesでホストされているPhi-4-miniデモ](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Hugging Face SpacesでホストされているPhi-4-multimodalデモ](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - ビジョンサンプル + - Phi-4サンプル 🆕 + - [📓] [Phi-4-multimodalを使って画像を読み取りコードを生成する](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Phi-3 / 3.5サンプル + - [📓][Phi-3-vision-画像のテキストからテキストへの変換](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) + - [📓][Phi-3-vision CLIP埋め込み](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [デモ: Phi-3リサイクル](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - Phi3-VisionとOpenVINOによるビジュアル言語アシスタント](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) + - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) + - [📓][Phi-3.5 Vision マルチフレームまたはマルチイメージサンプル](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Microsoft.ML.OnnxRuntime .NETを使ったPhi-3 VisionローカルONNXモデル](../../md/04.HOL/dotnet/src/LabsPhi303) + - [メニュー形式のMicrosoft.ML.OnnxRuntime .NETを使ったPhi-3 VisionローカルONNXモデル](../../md/04.HOL/dotnet/src/LabsPhi304) + + - オーディオサンプル + - Phi-4サンプル 🆕 + - [📓] [Phi-4-multimodalを使った音声文字起こしの抽出](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Phi-4-multimodalオーディオサンプル](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Phi-4-multimodal音声翻訳サンプル](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [.NETコンソールアプリケーションでPhi-4-multimodalオーディオを使い音声ファイルを解析し文字起こしを生成](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + + - MOEサンプル + - Phi-3 / 3.5サンプル + - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) ソーシャルメディアサンプル](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [NVIDIA NIM Phi-3 MOE、Azure AI Search、LlamaIndexを使ったRetrieval-Augmented Generation (RAG)パイプライン構築](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - 関数呼び出しサンプル + - Phi-4サンプル 🆕 + - [📓] [Phi-4-miniで関数呼び出しを使う](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [関数呼び出しを使ってPhi-4-miniでマルチエージェントを作成](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Ollamaで関数呼び出しを使う](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - マルチモーダルミキシングサンプル + - Phi-4サンプル 🆕 + - [📓] [Phi-4-multimodalを使ったテクノロジージャーナリストの活用例](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NETコンソールアプリケーションでPhi-4-multimodalを使い画像を解析](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Phiファインチューニングサンプル - [ファインチューニングシナリオ](./md/03.FineTuning/FineTuning_Scenarios.md) - - [ファインチューニング vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Phi-3を業界の専門家にするファインチューニング](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [AI Toolkit for VS Codeを使用したPhi-3のファインチューニング](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Azure Machine Learning Serviceを使用したPhi-3のファインチューニング](./md/03.FineTuning/Introduce_AzureML.md) - - [Loraを使用したPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_Lora.md) - - [QLoraを使用したPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_Qlora.md) - - [Azure AI Foundryを使用したPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Azure ML CLI/SDKを使用したPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Microsoft Oliveでの微調整](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Microsoft Olive Hands-On Labでの微調整](./md/03.FineTuning/olive-lab/readme.md) - - [Phi-3-visionのWeights and Biasを使用した微調整](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [Apple MLX Frameworkを使用したPhi-3の微調整](./md/03.FineTuning/FineTuning_MLX.md) - - [Phi-3-visionの微調整(公式サポート)](./md/03.FineTuning/FineTuning_Vision.md) - - [Kaito AKSおよびAzure Containersを使用したPhi-3の微調整(公式サポート)](./md/03.FineTuning/FineTuning_Kaito.md) - - [Phi-3および3.5 Visionの微調整](https://github.com/2U1/Phi3-Vision-Finetune) - -- Hands-on Lab - - [最先端モデルの探索: LLMs、SLMs、ローカル開発など](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [NLPの可能性を解き放つ: Microsoft Oliveでの微調整](https://github.com/azure/Ignite_FineTuning_workshop) - -- 学術研究論文と出版物 - - [Textbooks Are All You Need II: phi-1.5技術レポート](https://arxiv.org/abs/2309.05463) - - [Phi-3技術レポート: あなたのスマートフォン上で動作する高性能な言語モデル](https://arxiv.org/abs/2404.14219) - - [Phi-4技術レポート](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini技術レポート: Mixture-of-LoRAsを活用したコンパクトかつ強力なマルチモーダル言語モデル](https://arxiv.org/abs/2503.01743) - - [車載機能呼び出しのための小型言語モデルの最適化](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) PHI-3を選択式質問回答に微調整する: 方法論、結果、および課題](https://arxiv.org/abs/2501.01588) - -## Phiモデルの使用方法 + - [ファインチューニングとRAGの比較](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [Phi-3を業界の専門家に育てるファインチューニング](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [VS Code用AIツールキットを使ったPhi-3のファインチューニング](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Azure Machine Learning Serviceを使ったPhi-3のファインチューニング](./md/03.FineTuning/Introduce_AzureML.md) +- [Loraを使ったPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_Lora.md) + - [QLoraを使ったPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_Qlora.md) + - [Azure AI Foundryを使ったPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Azure ML CLI/SDKを使ったPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Microsoft Oliveを使ったファインチューニング](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Microsoft Oliveハンズオンラボでのファインチューニング](./md/03.FineTuning/olive-lab/readme.md) + - [Weights and Biasを使ったPhi-3-visionのファインチューニング](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Apple MLX Frameworkを使ったPhi-3のファインチューニング](./md/03.FineTuning/FineTuning_MLX.md) + - [Phi-3-visionのファインチューニング(公式サポート)](./md/03.FineTuning/FineTuning_Vision.md) + - [Kaito AKS、Azure Containersを使ったPhi-3のファインチューニング(公式サポート)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Phi-3および3.5 Visionのファインチューニング](https://github.com/2U1/Phi3-Vision-Finetune) + +- ハンズオンラボ + - [最先端モデルの探求:LLM、SLM、ローカル開発など](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [NLPの可能性を引き出す:Microsoft Oliveによるファインチューニング](https://github.com/azure/Ignite_FineTuning_workshop) + +- 学術研究論文および出版物 + - [Textbooks Are All You Need II: phi-1.5 技術レポート](https://arxiv.org/abs/2309.05463) + - [Phi-3 技術レポート:高性能な言語モデルをあなたのスマホで](https://arxiv.org/abs/2404.14219) + - [Phi-4 技術レポート](https://arxiv.org/abs/2412.08905) + - [Phi-4-Mini 技術レポート:Mixture-of-LoRAsによるコンパクトで強力なマルチモーダル言語モデル](https://arxiv.org/abs/2503.01743) + - [車載機能呼び出し向け小型言語モデルの最適化](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) PHI-3を用いた多肢選択式質問応答のファインチューニング:方法論、結果、課題](https://arxiv.org/abs/2501.01588) + - [Phi-4-推論 技術レポート](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini-推論 技術レポート](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) + +## Phiモデルの使い方 ### Azure AI FoundryでのPhi -Microsoft Phiを使用し、さまざまなハードウェアデバイスでE2Eソリューションを構築する方法を学ぶことができます。Phiを体験するには、モデルを試してみたり、シナリオに合わせてPhiをカスタマイズすることから始めましょう。 [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai)を使用してさらに学べます。[Azure AI Foundryの入門ガイド](/md/02.QuickStart/AzureAIFoundry_QuickStart.md)もご覧ください。 +Microsoft Phiの使い方や、さまざまなハードウェアデバイスでのE2Eソリューション構築方法を学べます。実際にPhiを体験するには、モデルを試し、シナリオに合わせてPhiをカスタマイズしてみましょう。詳細は[Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai)で、[Azure AI Foundryのはじめ方](/md/02.QuickStart/AzureAIFoundry_QuickStart.md)も参照してください。 -**プレイグラウンド** -各モデルには専用のプレイグラウンドがあります。[Azure AI Playground](https://aka.ms/try-phi3)でモデルを試してみてください。 +**プレイグラウンド** +各モデルには専用のプレイグラウンドがあり、モデルのテストができます。[Azure AI Playground](https://aka.ms/try-phi3)。 ### GitHubモデルでのPhi -Microsoft Phiを使用し、さまざまなハードウェアデバイスでE2Eソリューションを構築する方法を学ぶことができます。Phiを体験するには、モデルを試してみたり、シナリオに合わせてPhiをカスタマイズすることから始めましょう。 [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo)を使用してさらに学べます。[GitHub Model Catalogの入門ガイド](/md/02.QuickStart/GitHubModel_QuickStart.md)もご覧ください。 +Microsoft Phiの使い方や、さまざまなハードウェアデバイスでのE2Eソリューション構築方法を学べます。モデルを試し、自分のシナリオに合わせてPhiをカスタマイズしてみましょう。詳細は[GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo)で、[GitHub Model Catalogのはじめ方](/md/02.QuickStart/GitHubModel_QuickStart.md)も参照してください。 -**プレイグラウンド** -各モデルには専用の[プレイグラウンドがあります](/md/02.QuickStart/GitHubModel_QuickStart.md)。 +**プレイグラウンド** +各モデルには専用の[プレイグラウンドでのテスト環境](/md/02.QuickStart/GitHubModel_QuickStart.md)があります。 ### Hugging FaceでのPhi -モデルは[Hugging Face](https://huggingface.co/microsoft)でも利用可能です。 +モデルは[Hugging Face](https://huggingface.co/microsoft)でも見つけられます。 -**プレイグラウンド** +**プレイグラウンド** [Hugging Chatプレイグラウンド](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## 責任あるAI +## Responsible AI -Microsoftは、お客様がAI製品を責任を持って使用できるよう支援し、学びを共有し、透明性のあるパートナーシップを構築することにコミットしています。これには、Transparency NotesやImpact Assessmentsといったツールが含まれます。これらのリソースの多くは[https://aka.ms/RAI](https://aka.ms/RAI)で見つけることができます。 -Microsoftの責任あるAIへの取り組みは、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任といったAI原則に基づいています。 +Microsoftは、お客様がAI製品を責任を持って利用できるよう支援し、学びを共有し、Transparency NotesやImpact Assessmentsなどのツールを通じて信頼に基づくパートナーシップを築くことに取り組んでいます。これらのリソースは多くが[https://aka.ms/RAI](https://aka.ms/RAI)で入手可能です。 +Microsoftの責任あるAIへの取り組みは、公平性、信頼性と安全性、プライバシーとセキュリティ、包摂性、透明性、説明責任というAI原則に基づいています。 +大規模な自然言語、画像、音声モデル—このサンプルで使用されているもののような—は、不公平、不確実、または攻撃的な挙動を示す可能性があり、その結果として害を及ぼすことがあります。リスクや制限事項については、[Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) をご確認ください。 -このサンプルで使用されているような大規模な自然言語、画像、音声モデルは、不公平、不信頼、または攻撃的な振る舞いをする可能性があり、結果として害を引き起こすことがあります。[Azure OpenAIサービスのTransparency Note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text)を参照し、リスクや制限について理解してください。 +これらのリスクを軽減する推奨される方法は、有害な行動を検知・防止できる安全システムをアーキテクチャに組み込むことです。[Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) は独立した保護レイヤーを提供し、アプリケーションやサービス内のユーザー生成コンテンツおよびAI生成コンテンツの有害な内容を検知できます。Azure AI Content Safety には、有害な素材を検出するためのテキストおよび画像APIが含まれています。Azure AI Foundry 内の Content Safety サービスでは、異なるモダリティにわたる有害コンテンツの検出サンプルコードの閲覧、探索、試用が可能です。以下の[クイックスタートドキュメント](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest)では、サービスへのリクエスト方法を案内しています。 -これらのリスクを軽減する推奨アプローチは、有害な振る舞いを検出し防止する安全システムをアーキテクチャに組み込むことです。[Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview)は、アプリケーションやサービス内で生成された有害なコンテンツを検出できる独立した保護層を提供します。Azure AI Content Safetyには、有害なテキストや画像を検出するAPIが含まれています。Azure AI Foundry内では、Content Safetyサービスを使用して、有害なコンテンツを検出するサンプルコードを閲覧、探索、試用することができます。[クイックスタートドキュメント](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest)では、サービスへのリクエストを行う方法について説明しています。 +もう一つ考慮すべき点は、全体のアプリケーションパフォーマンスです。マルチモーダルかつマルチモデルのアプリケーションでは、パフォーマンスとは、システムがあなたやユーザーの期待通りに動作し、有害な出力を生成しないことを意味します。全体のアプリケーションのパフォーマンスを評価するには、[Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)を利用することが重要です。また、[カスタム評価器](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)を作成し評価に用いることも可能です。 -もう1つ考慮すべき点は、全体的なアプリケーションのパフォーマンスです。マルチモーダルおよびマルチモデルのアプリケーションにおいて、パフォーマンスとはシステムが期待通りの動作をし、ユーザーに有害な出力を生成しないことを意味します。アプリケーション全体のパフォーマンスを評価するには、[Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)を使用することが重要です。[カスタム評価機能](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)を作成し評価することも可能です。 -Azure AI Evaluation SDK を使用して、開発環境で AI アプリケーションを評価することができます。[Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) を使用すると、テストデータセットやターゲットを基に生成型 AI アプリケーションの生成物を、組み込みの評価ツールや任意のカスタム評価ツールで定量的に測定できます。Azure AI Evaluation SDK を使ってシステムを評価するには、[クイックスタートガイド](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)に従ってください。評価を実行した後は、[Azure AI Foundry で結果を可視化](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)することができます。 +開発環境で AI アプリケーションを評価するには、[Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html)を使用します。テストデータセットまたはターゲットが与えられると、生成AIアプリケーションの生成結果は、組み込み評価器または選択したカスタム評価器で定量的に測定されます。システム評価を開始するには、[クイックスタートガイド](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)に従ってください。評価を実行した後は、[Azure AI Foundryで結果を可視化](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)することができます。 -## 商標 +## トレードマーク -このプロジェクトには、プロジェクト、製品、サービスの商標やロゴが含まれる場合があります。Microsoft の商標やロゴの正規の使用は、[Microsoft の商標およびブランドガイドライン](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)に従う必要があります。このプロジェクトの改変版における Microsoft の商標やロゴの使用は、混乱を招いたり Microsoft の後援を暗示したりしないようにしてください。第三者の商標やロゴの使用については、その第三者のポリシーに従う必要があります。 +このプロジェクトには、プロジェクト、製品、サービスのトレードマークやロゴが含まれている場合があります。Microsoftのトレードマークやロゴの正当な使用は、[Microsoftのトレードマーク&ブランドガイドライン](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)に従う必要があります。Microsoftのトレードマークやロゴを変更版のこのプロジェクトで使用する場合、混乱を招いたりMicrosoftのスポンサーシップを示唆したりしてはなりません。第三者のトレードマークやロゴの使用は、それら第三者のポリシーに従います。 **免責事項**: -この文書はAI翻訳サービス[Co-op Translator](https://github.com/Azure/co-op-translator)を使用して翻訳されています。正確性を追求していますが、自動翻訳には誤りや不正確な部分が含まれる可能性があります。元の言語で記載された原文が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。この翻訳の使用に起因する誤解や誤解釈について、当方は一切の責任を負いません。 \ No newline at end of file +本書類はAI翻訳サービス「Co-op Translator」(https://github.com/Azure/co-op-translator)を使用して翻訳されました。正確性を期していますが、自動翻訳には誤りや不正確な部分が含まれる可能性があります。原文の言語によるオリジナル文書が正式な情報源とみなされるべきです。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の利用により生じた誤解や誤訳について、当方は一切責任を負いません。 \ No newline at end of file diff --git a/translations/ko/README.md b/translations/ko/README.md index 754501d1..63fd974e 100644 --- a/translations/ko/README.md +++ b/translations/ko/README.md @@ -1,13 +1,13 @@ -# Phi Cookbook: Microsoft의 Phi 모델 실습 예제 +# Phi Cookbook: Microsoft의 Phi 모델을 활용한 실습 예제 [![GitHub Codespaces에서 샘플 열기 및 사용](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) [![Dev Containers에서 열기](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) @@ -15,7 +15,7 @@ CO_OP_TRANSLATOR_METADATA: [![GitHub 기여자](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) [![GitHub 이슈](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) [![GitHub 풀 리퀘스트](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) -[![PR 환영](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) +[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) [![GitHub 감시자](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) [![GitHub 포크](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) @@ -25,209 +25,212 @@ CO_OP_TRANSLATOR_METADATA: Phi는 Microsoft에서 개발한 오픈 소스 AI 모델 시리즈입니다. -Phi는 현재 가장 강력하고 비용 효율적인 소형 언어 모델(SLM)로, 다국어, 추론, 텍스트/채팅 생성, 코딩, 이미지, 오디오 및 기타 시나리오에서 매우 우수한 벤치마크를 제공합니다. +Phi는 현재 가장 강력하고 비용 효율적인 소형 언어 모델(SLM)로, 다국어, 추론, 텍스트/채팅 생성, 코딩, 이미지, 오디오 등 다양한 시나리오에서 뛰어난 벤치마크를 자랑합니다. -Phi를 클라우드 또는 엣지 디바이스에 배포할 수 있으며, 제한된 컴퓨팅 자원으로 생성형 AI 애플리케이션을 쉽게 구축할 수 있습니다. +Phi는 클라우드나 엣지 디바이스에 배포할 수 있으며, 제한된 컴퓨팅 자원으로도 손쉽게 생성형 AI 애플리케이션을 구축할 수 있습니다. -이 리소스를 사용하려면 다음 단계를 따라 진행하세요: -1. **저장소 포크하기**: 클릭 [![GitHub 포크](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **저장소 클론하기**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Microsoft AI Discord 커뮤니티에 가입하여 전문가와 개발자를 만나보세요**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +이 리소스를 사용해 시작하려면 다음 단계를 따라주세요: +1. **레포지토리 포크하기**: 클릭 [![GitHub 포크](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **레포지토리 클론하기**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**Microsoft AI Discord 커뮤니티에 참여하여 전문가 및 개발자들과 소통하기**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -![커버 이미지](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.ko.png) +![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.ko.png) ## 🌐 다국어 지원 -[프랑스어](../fr/README.md) | [스페인어](../es/README.md) | [독일어](../de/README.md) | [러시아어](../ru/README.md) | [아랍어](../ar/README.md) | [페르시아어 (파르시)](../fa/README.md) | [우르두어](../ur/README.md) | [중국어 (간체)](../zh/README.md) | [중국어 (번체, 마카오)](../mo/README.md) | [중국어 (번체, 홍콩)](../hk/README.md) | [중국어 (번체, 대만)](../tw/README.md) | [일본어](../ja/README.md) | [한국어](./README.md) | [힌디어](../hi/README.md) | [벵골어](../bn/README.md) | [마라티어](../mr/README.md) | [네팔어](../ne/README.md) | [펀자브어 (구르무키)](../pa/README.md) | [포르투갈어 (포르투갈)](../pt/README.md) | [포르투갈어 (브라질)](../br/README.md) | [이탈리아어](../it/README.md) | [폴란드어](../pl/README.md) | [터키어](../tr/README.md) | [그리스어](../el/README.md) | [태국어](../th/README.md) | [스웨덴어](../sv/README.md) | [덴마크어](../da/README.md) | [노르웨이어](../no/README.md) | [핀란드어](../fi/README.md) | [네덜란드어](../nl/README.md) | [히브리어](../he/README.md) | [베트남어](../vi/README.md) | [인도네시아어](../id/README.md) | [말레이어](../ms/README.md) | [타갈로그어 (필리핀어)](../tl/README.md) | [스와힐리어](../sw/README.md) | [헝가리어](../hu/README.md) | [체코어](../cs/README.md) | [슬로바키아어](../sk/README.md) | [루마니아어](../ro/README.md) | [불가리아어](../bg/README.md) | [세르비아어 (키릴문자)](../sr/README.md) | [크로아티아어](../hr/README.md) | [슬로베니아어](../sl/README.md) +[프랑스어](../fr/README.md) | [스페인어](../es/README.md) | [독일어](../de/README.md) | [러시아어](../ru/README.md) | [아랍어](../ar/README.md) | [페르시아어 (파르시)](../fa/README.md) | [우르두어](../ur/README.md) | [중국어 (간체)](../zh/README.md) | [중국어 (번체, 마카오)](../mo/README.md) | [중국어 (번체, 홍콩)](../hk/README.md) | [중국어 (번체, 대만)](../tw/README.md) | [일본어](../ja/README.md) | [한국어](./README.md) | [힌디어](../hi/README.md) [벵골어](../bn/README.md) | [마라티어](../mr/README.md) | [네팔어](../ne/README.md) | [펀자브어 (구르무키)](../pa/README.md) | [포르투갈어 (포르투갈)](../pt/README.md) | [포르투갈어 (브라질)](../br/README.md) | [이탈리아어](../it/README.md) | [폴란드어](../pl/README.md) | [터키어](../tr/README.md) | [그리스어](../el/README.md) | [태국어](../th/README.md) | [스웨덴어](../sv/README.md) | [덴마크어](../da/README.md) | [노르웨이어](../no/README.md) | [핀란드어](../fi/README.md) | [네덜란드어](../nl/README.md) | [히브리어](../he/README.md) | [베트남어](../vi/README.md) | [인도네시아어](../id/README.md) | [말레이어](../ms/README.md) | [타갈로그어 (필리핀어)](../tl/README.md) | [스와힐리어](../sw/README.md) | [헝가리어](../hu/README.md) | [체코어](../cs/README.md) | [슬로바키아어](../sk/README.md) | [루마니아어](../ro/README.md) | [불가리아어](../bg/README.md) | [세르비아어 (키릴문자)](../sr/README.md) | [크로아티아어](../hr/README.md) | [슬로베니아어](../sl/README.md) 왼쪽에서 오른쪽으로 출력해 주세요. ## 목차 -- 소개 - - [Phi 패밀리에 오신 것을 환영합니다](./md/01.Introduction/01/01.PhiFamily.md) - - [환경 설정하기](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [핵심 기술 이해하기](./md/01.Introduction/01/01.Understandingtech.md) - - [Phi 모델을 위한 AI 안전성](./md/01.Introduction/01/01.AISafety.md) - - [Phi 하드웨어 지원](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Phi 모델 및 플랫폼별 가용성](./md/01.Introduction/01/01.Edgeandcloud.md) - - [Guidance-ai와 Phi 사용하기](./md/01.Introduction/01/01.Guidance.md) - - [GitHub 마켓플레이스 모델](https://github.com/marketplace/models) +- 소개 + - [Phi 패밀리에 오신 것을 환영합니다](./md/01.Introduction/01/01.PhiFamily.md) + - [환경 설정하기](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [핵심 기술 이해하기](./md/01.Introduction/01/01.Understandingtech.md) + - [Phi 모델을 위한 AI 안전](./md/01.Introduction/01/01.AISafety.md) + - [Phi 하드웨어 지원](./md/01.Introduction/01/01.Hardwaresupport.md) + - [플랫폼별 Phi 모델 및 가용성](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Guidance-ai와 Phi 사용하기](./md/01.Introduction/01/01.Guidance.md) + - [GitHub 마켓플레이스 모델](https://github.com/marketplace/models) - [Azure AI 모델 카탈로그](https://ai.azure.com) -- 다양한 환경에서 Phi 추론하기 - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [GitHub 모델](./md/01.Introduction/02/02.GitHubModel.md) - - [Azure AI Foundry 모델 카탈로그](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- Phi 패밀리 추론 - - [iOS에서 Phi 추론하기](./md/01.Introduction/03/iOS_Inference.md) - - [Android에서 Phi 추론하기](./md/01.Introduction/03/Android_Inference.md) - - [Jetson에서 Phi 추론하기](./md/01.Introduction/03/Jetson_Inference.md) - - [AI PC에서 Phi 추론하기](./md/01.Introduction/03/AIPC_Inference.md) - - [Apple MLX 프레임워크로 Phi 추론하기](./md/01.Introduction/03/MLX_Inference.md) - - [로컬 서버에서 Phi 추론하기](./md/01.Introduction/03/Local_Server_Inference.md) - - [AI Toolkit을 사용하여 원격 서버에서 Phi 추론하기](./md/01.Introduction/03/Remote_Interence.md) - - [Rust로 Phi 추론하기](./md/01.Introduction/03/Rust_Inference.md) - - [로컬에서 Phi--Vision 추론하기](./md/01.Introduction/03/Vision_Inference.md) - - [Kaito AKS, Azure Containers(공식 지원)을 사용하여 Phi 추론하기](./md/01.Introduction/03/Kaito_Inference.md) - -- [Phi 패밀리 양자화](./md/01.Introduction/04/QuantifyingPhi.md) - - [llama.cpp를 사용하여 Phi-3.5 / 4 양자화하기](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [onnxruntime의 생성 AI 확장을 사용하여 Phi-3.5 / 4 양자화하기](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [Intel OpenVINO를 사용하여 Phi-3.5 / 4 양자화하기](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Apple MLX 프레임워크를 사용하여 Phi-3.5 / 4 양자화하기](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) +- 다양한 환경에서의 Phi 추론 + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub 모델](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry 모델 카탈로그](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Phi 패밀리 추론 + - [iOS에서 Phi 추론](./md/01.Introduction/03/iOS_Inference.md) + - [Android에서 Phi 추론](./md/01.Introduction/03/Android_Inference.md) + - [Jetson에서 Phi 추론](./md/01.Introduction/03/Jetson_Inference.md) + - [AI PC에서 Phi 추론](./md/01.Introduction/03/AIPC_Inference.md) + - [Apple MLX 프레임워크와 함께하는 Phi 추론](./md/01.Introduction/03/MLX_Inference.md) + - [로컬 서버에서 Phi 추론](./md/01.Introduction/03/Local_Server_Inference.md) + - [AI Toolkit을 사용한 원격 서버에서의 Phi 추론](./md/01.Introduction/03/Remote_Interence.md) + - [Rust와 함께하는 Phi 추론](./md/01.Introduction/03/Rust_Inference.md) + - [로컬에서의 Phi--Vision 추론](./md/01.Introduction/03/Vision_Inference.md) + - [Kaito AKS, Azure 컨테이너(공식 지원)와 함께하는 Phi 추론](./md/01.Introduction/03/Kaito_Inference.md) +- [Phi 패밀리 양자화](./md/01.Introduction/04/QuantifyingPhi.md) + - [llama.cpp를 사용한 Phi-3.5 / 4 양자화](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [onnxruntime용 생성 AI 확장으로 Phi-3.5 / 4 양자화](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Intel OpenVINO를 사용한 Phi-3.5 / 4 양자화](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Apple MLX 프레임워크를 사용한 Phi-3.5 / 4 양자화](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - Phi 평가 -- [책임 있는 AI](./md/01.Introduction/05/ResponsibleAI.md) - - [평가를 위한 Azure AI Foundry](./md/01.Introduction/05/AIFoundry.md) - - [평가를 위한 Promptflow 사용](./md/01.Introduction/05/Promptflow.md) - -- Azure AI Search와 RAG - - [Phi-4-mini 및 Phi-4-multimodal(RAG)을 Azure AI Search와 함께 사용하는 방법](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - -- Phi 애플리케이션 개발 샘플 - - 텍스트 및 채팅 애플리케이션 - - Phi-4 샘플 🆕 - - [📓] [Phi-4-mini ONNX 모델로 채팅하기](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Phi-4 로컬 ONNX 모델 .NET으로 채팅하기](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Semantic Kernel을 사용한 Phi-4 ONNX .NET 콘솔 앱 채팅](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - - Phi-3 / 3.5 샘플 - - [Phi3, ONNX Runtime Web 및 WebGPU를 사용하여 브라우저에서 로컬 챗봇 실행](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [OpenVino 채팅](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [다중 모델 - Phi-3-mini 및 OpenAI Whisper와의 상호작용](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - 래퍼 구축 및 MLFlow와 함께 Phi-3 사용](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [모델 최적화 - Olive를 사용하여 ONNX Runtime Web용 Phi-3-min 모델 최적화 방법](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [Phi-3 mini-4k-instruct-onnx와 함께 WinUI3 앱 제작](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 다중 모델 AI 기반 노트 앱 샘플](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [Prompt flow를 사용하여 맞춤형 Phi-3 모델을 미세 조정 및 통합](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Azure AI Foundry에서 Prompt flow를 사용하여 맞춤형 Phi-3 모델을 미세 조정 및 통합](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Microsoft의 책임 있는 AI 원칙을 중심으로 Azure AI Foundry에서 미세 조정된 Phi-3 / Phi-3.5 모델 평가](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct 언어 예측 샘플 (중국어/영어)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Phi-3.5-Instruct WebGPU RAG 챗봇](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Windows GPU를 사용하여 Phi-3.5-Instruct ONNX와 함께 Prompt flow 솔루션 생성](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [Microsoft Phi-3.5 tflite를 사용하여 Android 앱 생성](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Microsoft.ML.OnnxRuntime을 사용하여 로컬 ONNX Phi-3 모델로 Q&A .NET 예제](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Semantic Kernel과 Phi-3를 사용한 .NET 콘솔 채팅 앱](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Azure AI Inference SDK 코드 기반 샘플 - - Phi-4 샘플 🆕 - - [📓] [Phi-4-multimodal을 사용하여 프로젝트 코드 생성](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - - Phi-3 / 3.5 샘플 - - [Microsoft Phi-3 패밀리를 사용하여 나만의 Visual Studio Code GitHub Copilot Chat 빌드](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [GitHub 모델로 Phi-3.5를 사용하여 Visual Studio Code Chat Copilot 에이전트 생성](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - - 고급 추론 샘플 - - Phi-4 샘플 🆕 - - [📓] [Phi-4-mini 추론 샘플](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - 데모 - - [Hugging Face Spaces에서 호스팅되는 Phi-4-mini 데모](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Hugging Face Spaces에서 호스팅되는 Phi-4-multimodal 데모](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - - 비전 샘플 - - Phi-4 샘플 🆕 - - [📓] [Phi-4-multimodal을 사용하여 이미지 읽기 및 코드 생성](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 샘플 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) + +- Azure AI Search와 함께하는 RAG + - [Phi-4-mini 및 Phi-4-multimodal(RAG)을 Azure AI Search와 함께 사용하는 방법](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + +- Phi 애플리케이션 개발 샘플 + - 텍스트 및 채팅 애플리케이션 + - Phi-4 샘플 🆕 + - [📓] [Phi-4-mini ONNX 모델과 채팅하기](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [Phi-4 로컬 ONNX 모델로 채팅하기 .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Semantic Kernel을 사용한 Phi-4 ONNX 기반 .NET 콘솔 채팅 앱](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - Phi-3 / 3.5 샘플 + - [Phi3, ONNX Runtime Web, WebGPU를 이용한 브라우저 내 로컬 챗봇](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVino 채팅](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [멀티 모델 - Phi-3-mini와 OpenAI Whisper의 인터랙티브 결합](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - 래퍼 제작 및 Phi-3와 MLFlow 사용하기](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [모델 최적화 - Olive를 활용한 Phi-3-mini 모델 ONNX Runtime Web 최적화 방법](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [Phi-3 mini-4k-instruct-onnx 기반 WinUI3 앱](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + - [WinUI3 멀티 모델 AI 기반 노트 앱 샘플](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [Prompt flow를 활용한 맞춤형 Phi-3 모델 파인튜닝 및 통합](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Azure AI Foundry에서 Prompt flow를 이용한 맞춤형 Phi-3 모델 파인튜닝 및 통합](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Microsoft의 Responsible AI 원칙에 초점을 맞춘 Azure AI Foundry 내 파인튜닝된 Phi-3 / Phi-3.5 모델 평가](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct 언어 예측 샘플 (중국어/영어)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Phi-3.5-Instruct WebGPU RAG 챗봇](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [Windows GPU를 이용한 Phi-3.5-Instruct ONNX 기반 Prompt flow 솔루션 만들기](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Microsoft Phi-3.5 tflite를 활용한 Android 앱 만들기](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Microsoft.ML.OnnxRuntime를 사용한 로컬 ONNX Phi-3 모델 기반 Q&A .NET 예제](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Semantic Kernel과 Phi-3를 활용한 콘솔 채팅 .NET 앱](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Azure AI Inference SDK 코드 기반 샘플 + - Phi-4 샘플 🆕 + - [📓] [Phi-4-multimodal을 이용한 프로젝트 코드 생성](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - Phi-3 / 3.5 샘플 + - [Microsoft Phi-3 패밀리를 활용해 직접 만드는 Visual Studio Code GitHub Copilot 채팅](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [GitHub 모델을 이용한 Phi-3.5 기반 Visual Studio Code 채팅 Copilot 에이전트 만들기](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + + - 고급 추론 샘플 + - Phi-4 샘플 🆕 + - [📓] [Phi-4-mini-reasoning 또는 Phi-4-reasoning 샘플](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Microsoft Olive를 이용한 Phi-4-mini-reasoning 파인튜닝](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Apple MLX를 이용한 Phi-4-mini-reasoning 파인튜닝](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [GitHub 모델을 활용한 Phi-4-mini-reasoning](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini reasoning with Azure AI Foundry Models](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - 데모 + - [Phi-4-mini 데모 (Hugging Face Spaces 호스팅)](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-multimodal 데모 (Hugging Face Spaces 호스팅)](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - 비전 샘플 + - Phi-4 샘플 🆕 + - [📓] [Phi-4-multimodal로 이미지 읽기 및 코드 생성하기](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Phi-3 / 3.5 샘플 + - [📓][Phi-3-vision-이미지 텍스트 변환](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - 시각적 언어 어시스턴트 - Phi3-Vision과 OpenVINO 활용](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [📓][Phi-3-vision CLIP 임베딩](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [데모: Phi-3 재활용](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - 시각 언어 어시스턴트 - Phi3-Vision과 OpenVINO 사용](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - [📓][Phi-3.5 Vision 다중 프레임 또는 다중 이미지 샘플](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision Microsoft.ML.OnnxRuntime .NET을 활용한 로컬 ONNX 모델](../../md/04.HOL/dotnet/src/LabsPhi303) - - [Microsoft.ML.OnnxRuntime .NET을 활용한 메뉴 기반 Phi-3 Vision 로컬 ONNX 모델](../../md/04.HOL/dotnet/src/LabsPhi304) + - [Microsoft.ML.OnnxRuntime .NET을 사용한 Phi-3 Vision 로컬 ONNX 모델](../../md/04.HOL/dotnet/src/LabsPhi303) + - [메뉴 기반 Phi-3 Vision 로컬 ONNX 모델 (Microsoft.ML.OnnxRuntime .NET 사용)](../../md/04.HOL/dotnet/src/LabsPhi304) - 오디오 샘플 - Phi-4 샘플 🆕 - - [📓] [Phi-4-multimodal을 활용한 오디오 텍스트 추출](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Phi-4-multimodal을 사용한 오디오 전사 추출](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - [📓] [Phi-4-multimodal 오디오 샘플](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - [📓] [Phi-4-multimodal 음성 번역 샘플](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET 콘솔 애플리케이션을 활용하여 Phi-4-multimodal 오디오 파일 분석 및 텍스트 생성](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - [.NET 콘솔 애플리케이션으로 Phi-4-multimodal 오디오를 사용해 오디오 파일 분석 및 전사 생성](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - MOE 샘플 - Phi-3 / 3.5 샘플 - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) 소셜 미디어 샘플](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [NVIDIA NIM Phi-3 MOE, Azure AI Search, 및 LlamaIndex를 활용한 Retrieval-Augmented Generation (RAG) 파이프라인 구축](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - [📓] [NVIDIA NIM Phi-3 MOE, Azure AI Search, LlamaIndex를 활용한 Retrieval-Augmented Generation (RAG) 파이프라인 구축](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - 함수 호출 샘플 - Phi-4 샘플 🆕 - - [📓] [Phi-4-mini를 활용한 함수 호출 사용](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Phi-4-mini를 활용한 다중 에이전트 생성 함수 호출 사용](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [Ollama를 활용한 함수 호출 사용](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - [📓] [Phi-4-mini에서 함수 호출 사용하기](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Phi-4-mini로 멀티 에이전트 생성 시 함수 호출 사용하기](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Ollama와 함께 함수 호출 사용하기](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - 멀티모달 믹싱 샘플 - Phi-4 샘플 🆕 - - [📓] [Phi-4-multimodal을 활용하여 기술 저널리스트로 활동](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET 콘솔 애플리케이션을 활용하여 Phi-4-multimodal로 이미지 분석](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Phi 샘플 세부 조정 - - [세부 조정 시나리오](./md/03.FineTuning/FineTuning_Scenarios.md) - - [세부 조정 vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Phi-3를 산업 전문가로 만들기 위한 세부 조정](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [VS Code용 AI Toolkit을 활용한 Phi-3 세부 조정](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Azure Machine Learning Service를 활용한 Phi-3 세부 조정](./md/03.FineTuning/Introduce_AzureML.md) - - [Lora를 활용한 Phi-3 세부 조정](./md/03.FineTuning/FineTuning_Lora.md) - - [QLora를 활용한 Phi-3 세부 조정](./md/03.FineTuning/FineTuning_Qlora.md) - - [Azure AI Foundry를 활용한 Phi-3 세부 조정](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Azure ML CLI/SDK를 활용한 Phi-3 세부 조정](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Microsoft Olive을 활용한 파인튜닝](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Microsoft Olive 핸즈온 랩을 활용한 파인튜닝](./md/03.FineTuning/olive-lab/readme.md) - - [Weights and Bias를 활용한 Phi-3-vision 파인튜닝](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [Apple MLX Framework을 활용한 Phi-3 파인튜닝](./md/03.FineTuning/FineTuning_MLX.md) + - [📓] [기술 기자 역할로 Phi-4-multimodal 사용하기](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET 콘솔 애플리케이션으로 Phi-4-multimodal을 사용해 이미지 분석하기](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- 파인튜닝 Phi 샘플 + - [파인튜닝 시나리오](./md/03.FineTuning/FineTuning_Scenarios.md) + - [파인튜닝과 RAG 비교](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [Phi-3를 산업 전문가로 만들기 위한 파인튜닝](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [AI Toolkit for VS Code를 활용한 Phi-3 파인튜닝](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Azure Machine Learning Service를 활용한 Phi-3 파인튜닝](./md/03.FineTuning/Introduce_AzureML.md) +- [Lora를 이용한 Phi-3 파인튜닝](./md/03.FineTuning/FineTuning_Lora.md) + - [QLora를 이용한 Phi-3 파인튜닝](./md/03.FineTuning/FineTuning_Qlora.md) + - [Azure AI Foundry를 이용한 Phi-3 파인튜닝](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Azure ML CLI/SDK를 이용한 Phi-3 파인튜닝](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Microsoft Olive를 이용한 파인튜닝](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Microsoft Olive 실습 랩을 통한 파인튜닝](./md/03.FineTuning/olive-lab/readme.md) + - [Weights and Bias를 이용한 Phi-3-vision 파인튜닝](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Apple MLX Framework를 이용한 Phi-3 파인튜닝](./md/03.FineTuning/FineTuning_MLX.md) - [Phi-3-vision 파인튜닝 (공식 지원)](./md/03.FineTuning/FineTuning_Vision.md) - - [Kaito AKS 및 Azure Containers를 활용한 Phi-3 파인튜닝 (공식 지원)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Kaito AKS, Azure Containers를 이용한 Phi-3 파인튜닝 (공식 지원)](./md/03.FineTuning/FineTuning_Kaito.md) - [Phi-3 및 3.5 Vision 파인튜닝](https://github.com/2U1/Phi3-Vision-Finetune) -- 핸즈온 랩 - - [최신 모델 탐색: LLMs, SLMs, 로컬 개발 및 기타](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [NLP 잠재력 해제: Microsoft Olive을 활용한 파인튜닝](https://github.com/azure/Ignite_FineTuning_workshop) +- 실습 랩 + - [최신 모델 탐구: LLM, SLM, 로컬 개발 등](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [Microsoft Olive로 NLP 가능성 확장: 파인튜닝](https://github.com/azure/Ignite_FineTuning_workshop) - 학술 연구 논문 및 출판물 - - [교과서만으로 충분하다 II: phi-1.5 기술 보고서](https://arxiv.org/abs/2309.05463) - - [Phi-3 기술 보고서: 휴대폰에서 로컬로 실행 가능한 고성능 언어 모델](https://arxiv.org/abs/2404.14219) + - [Textbooks Are All You Need II: phi-1.5 기술 보고서](https://arxiv.org/abs/2309.05463) + - [Phi-3 기술 보고서: 휴대폰에서 실행 가능한 고성능 언어 모델](https://arxiv.org/abs/2404.14219) - [Phi-4 기술 보고서](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini 기술 보고서: Mixture-of-LoRAs를 활용한 강력한 멀티모달 언어 모델](https://arxiv.org/abs/2503.01743) + - [Phi-4-Mini 기술 보고서: LoRA 혼합을 통한 작고 강력한 멀티모달 언어 모델](https://arxiv.org/abs/2503.01743) - [차량 내 기능 호출을 위한 소형 언어 모델 최적화](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) Phi-3의 선택형 질문 답변 파인튜닝: 방법론, 결과 및 도전 과제](https://arxiv.org/abs/2501.01588) + - [(WhyPHI) PHI-3 다지선다형 문제 답변용 파인튜닝: 방법론, 결과 및 과제](https://arxiv.org/abs/2501.01588) + - [Phi-4 추론 기술 보고서](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini 추론 기술 보고서](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) ## Phi 모델 사용하기 -### Azure AI Foundry에서 Phi +### Azure AI Foundry에서 Phi 사용하기 -Microsoft Phi를 사용하는 방법과 다양한 하드웨어 장치에서 E2E 솔루션을 구축하는 방법을 배울 수 있습니다. Phi를 직접 경험하려면 모델을 테스트하고 사용자의 시나리오에 맞게 Phi를 커스터마이징해보세요. [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai)를 통해 시작할 수 있으며, [Azure AI Foundry 시작하기](/md/02.QuickStart/AzureAIFoundry_QuickStart.md)에서 자세히 알아볼 수 있습니다. +Microsoft Phi를 사용하는 방법과 다양한 하드웨어 장치에서 E2E 솔루션을 구축하는 방법을 배울 수 있습니다. Phi를 직접 경험해보려면 모델을 사용해보고, [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai)를 통해 시나리오에 맞게 Phi를 커스터마이징해 보세요. 자세한 내용은 [Azure AI Foundry 시작하기](/md/02.QuickStart/AzureAIFoundry_QuickStart.md)에서 확인할 수 있습니다. -**Playground** -각 모델은 전용 테스트 공간을 가지고 있습니다. [Azure AI Playground](https://aka.ms/try-phi3)를 확인해보세요. +**플레이그라운드** +각 모델마다 테스트할 수 있는 전용 플레이그라운드가 있습니다: [Azure AI Playground](https://aka.ms/try-phi3). -### GitHub Models에서 Phi +### GitHub 모델에서 Phi 사용하기 -Microsoft Phi를 사용하는 방법과 다양한 하드웨어 장치에서 E2E 솔루션을 구축하는 방법을 배울 수 있습니다. Phi를 직접 경험하려면 모델을 테스트하고 사용자의 시나리오에 맞게 Phi를 커스터마이징해보세요. [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo)를 통해 시작할 수 있으며, [GitHub Model Catalog 시작하기](/md/02.QuickStart/GitHubModel_QuickStart.md)에서 자세히 알아볼 수 있습니다. +Microsoft Phi를 사용하는 방법과 다양한 하드웨어 장치에서 E2E 솔루션을 구축하는 방법을 배울 수 있습니다. Phi를 직접 경험해보려면 모델을 사용해보고, [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo)를 통해 시나리오에 맞게 Phi를 커스터마이징해 보세요. 자세한 내용은 [GitHub Model Catalog 시작하기](/md/02.QuickStart/GitHubModel_QuickStart.md)에서 확인할 수 있습니다. -**Playground** -각 모델은 전용 [테스트 공간](/md/02.QuickStart/GitHubModel_QuickStart.md)을 가지고 있습니다. +**플레이그라운드** +각 모델마다 테스트할 수 있는 전용 [플레이그라운드](/md/02.QuickStart/GitHubModel_QuickStart.md)가 있습니다. -### Hugging Face에서 Phi +### Hugging Face에서 Phi 사용하기 -모델은 [Hugging Face](https://huggingface.co/microsoft)에서도 확인할 수 있습니다. +[Hugging Face](https://huggingface.co/microsoft)에서도 모델을 찾아볼 수 있습니다. -**Playground** -[Hugging Chat 테스트 공간](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct)을 확인해보세요. +**플레이그라운드** +[Hugging Chat 플레이그라운드](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) ## 책임 있는 AI -Microsoft는 고객이 AI 제품을 책임감 있게 사용할 수 있도록 돕고, 학습 내용을 공유하며, 투명성 노트 및 영향 평가와 같은 도구를 통해 신뢰 기반의 파트너십을 구축하기 위해 노력하고 있습니다. 이러한 리소스는 [https://aka.ms/RAI](https://aka.ms/RAI)에서 확인할 수 있습니다. -Microsoft의 책임 있는 AI 접근법은 공정성, 신뢰성 및 안전성, 프라이버시와 보안, 포용성, 투명성, 책임감이라는 AI 원칙에 기반을 두고 있습니다. +Microsoft는 고객이 AI 제품을 책임감 있게 사용할 수 있도록 지원하며, 투명성 노트와 영향 평가 같은 도구를 통해 학습 내용을 공유하고 신뢰 기반의 파트너십을 구축하는 데 힘쓰고 있습니다. 이러한 자료들은 [https://aka.ms/RAI](https://aka.ms/RAI)에서 확인할 수 있습니다. +Microsoft의 책임 있는 AI 접근법은 공정성, 신뢰성 및 안전성, 개인정보 보호 및 보안, 포용성, 투명성, 책임성이라는 AI 원칙에 기반하고 있습니다. +대규모 자연어, 이미지 및 음성 모델(이 샘플에서 사용된 모델과 유사한)은 잠재적으로 불공정하거나 신뢰할 수 없거나 불쾌감을 줄 수 있는 방식으로 작동할 수 있으며, 이로 인해 피해가 발생할 수 있습니다. 위험과 한계에 대해 알고 싶다면 [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text)를 참고하세요. -대규모 자연어, 이미지, 음성 모델은 불공정하거나 신뢰할 수 없거나 불쾌한 방식으로 작동할 가능성이 있으며, 이는 피해를 초래할 수 있습니다. 위험 및 제한 사항에 대해 알고 싶다면 [Azure OpenAI 서비스 투명성 노트](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text)를 참고하세요. +이러한 위험을 완화하기 위한 권장 방법은 아키텍처에 유해한 행동을 감지하고 차단할 수 있는 안전 시스템을 포함하는 것입니다. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview)는 독립적인 보호 계층을 제공하여 애플리케이션과 서비스에서 사용자 생성 및 AI 생성 유해 콘텐츠를 감지할 수 있습니다. Azure AI Content Safety에는 유해한 자료를 탐지할 수 있는 텍스트 및 이미지 API가 포함되어 있습니다. Azure AI Foundry 내의 Content Safety 서비스에서는 다양한 모달리티에서 유해 콘텐츠를 감지하는 샘플 코드를 보고 탐색하며 직접 체험할 수 있습니다. 다음 [빠른 시작 문서](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest)는 서비스에 요청을 보내는 방법을 안내합니다. -이러한 위험을 완화하기 위한 권장 접근법은 유해한 행동을 감지하고 방지할 수 있는 안전 시스템을 아키텍처에 포함하는 것입니다. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview)는 독립적인 보호 계층을 제공하며, 애플리케이션 및 서비스에서 사용자 생성 및 AI 생성 콘텐츠의 유해성을 감지할 수 있습니다. Azure AI Content Safety는 텍스트 및 이미지 API를 포함하며, 유해한 자료를 감지할 수 있습니다. Azure AI Foundry 내에서 Content Safety 서비스는 다양한 모달리티에서 유해 콘텐츠를 감지하는 샘플 코드를 탐색하고 시도할 수 있는 기능을 제공합니다. [빠른 시작 문서](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest)를 통해 서비스 요청 방법을 안내받을 수 있습니다. +또 다른 고려 사항은 전체 애플리케이션 성능입니다. 멀티모달 및 멀티모델 애플리케이션에서는 시스템이 사용자와 개발자가 기대하는 대로 작동하는 것, 즉 유해한 출력을 생성하지 않는 것을 성능의 의미로 봅니다. [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)를 사용하여 전체 애플리케이션의 성능을 평가하는 것이 중요합니다. 또한 [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)를 생성하고 평가할 수도 있습니다. -또한 고려해야 할 또 다른 측면은 전체 애플리케이션 성능입니다. 멀티모달 및 멀티모델 애플리케이션의 경우 성능은 시스템이 사용자와 사용자의 기대에 부합하며 유해한 출력을 생성하지 않는 것을 의미합니다. [Performance and Quality 및 Risk and Safety 평가자](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)를 사용하여 전체 애플리케이션 성능을 평가하는 것이 중요합니다. 또한 [맞춤형 평가자](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)를 생성하고 평가할 수 있습니다. -Azure AI Evaluation SDK를 사용하여 개발 환경에서 AI 애플리케이션을 평가할 수 있습니다. 테스트 데이터셋이나 목표를 기반으로, 생성형 AI 애플리케이션의 결과물은 기본 제공 평가기나 사용자가 선택한 맞춤 평가기를 통해 정량적으로 측정됩니다. Azure AI Evaluation SDK를 사용하여 시스템을 평가하려면 [빠른 시작 가이드](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)를 따라 시작할 수 있습니다. 평가 실행을 완료한 후, [Azure AI Foundry에서 결과를 시각화](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)할 수 있습니다. +[Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html)를 사용하여 개발 환경에서 AI 애플리케이션을 평가할 수 있습니다. 테스트 데이터셋이나 목표를 제공하면, 생성 AI 애플리케이션의 생성 결과를 내장 평가자 또는 선택한 사용자 정의 평가자를 통해 정량적으로 측정할 수 있습니다. 시스템 평가를 위해 azure ai evaluation sdk를 시작하려면 [빠른 시작 가이드](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)를 따라 하세요. 평가 실행을 완료하면 [Azure AI Foundry에서 결과를 시각화](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)할 수 있습니다. ## 상표 -이 프로젝트는 프로젝트, 제품 또는 서비스와 관련된 상표나 로고를 포함할 수 있습니다. Microsoft 상표나 로고의 허가된 사용은 [Microsoft 상표 및 브랜드 지침](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)을 준수해야 하며, 이를 따라야 합니다. 이 프로젝트의 수정된 버전에서 Microsoft 상표나 로고를 사용하는 경우, 혼란을 초래하거나 Microsoft의 후원을 암시해서는 안 됩니다. 제삼자의 상표나 로고를 사용하는 경우, 해당 제삼자의 정책을 따라야 합니다. +이 프로젝트에는 프로젝트, 제품 또는 서비스의 상표나 로고가 포함될 수 있습니다. Microsoft 상표 또는 로고의 권한 있는 사용은 [Microsoft의 상표 및 브랜드 가이드라인](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)을 준수해야 합니다. 수정된 버전의 프로젝트에서 Microsoft 상표 또는 로고를 사용하는 경우 혼동을 일으키거나 Microsoft의 후원을 암시해서는 안 됩니다. 제3자 상표나 로고 사용은 해당 제3자의 정책을 따라야 합니다. **면책 조항**: -이 문서는 AI 번역 서비스 [Co-op Translator](https://github.com/Azure/co-op-translator)를 사용하여 번역되었습니다. 정확성을 위해 최선을 다하고 있지만, 자동 번역에는 오류나 부정확성이 포함될 수 있습니다. 원본 문서를 해당 언어로 작성된 문서로 간주해야 하며, 중요한 정보에 대해서는 전문적인 인간 번역을 권장합니다. 이 번역 사용으로 인해 발생하는 오해나 잘못된 해석에 대해 당사는 책임을 지지 않습니다. \ No newline at end of file +이 문서는 AI 번역 서비스 [Co-op Translator](https://github.com/Azure/co-op-translator)를 사용하여 번역되었습니다. 정확성을 위해 노력하고 있으나, 자동 번역에는 오류나 부정확성이 포함될 수 있음을 유의하시기 바랍니다. 원본 문서의 원어 버전이 권위 있는 출처로 간주되어야 합니다. 중요한 정보의 경우 전문 인간 번역을 권장합니다. 본 번역의 사용으로 인한 오해나 잘못된 해석에 대해 당사는 책임을 지지 않습니다. \ No newline at end of file diff --git a/translations/mo/README.md b/translations/mo/README.md index a4f56499..0851e06c 100644 --- a/translations/mo/README.md +++ b/translations/mo/README.md @@ -1,13 +1,13 @@ -# Phi Cookbook: Practical Examples with Microsoft's Phi Models +# Phi Cookbook: Hands-On Examples with Microsoft's Phi Models [![Open and use the samples in GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) [![Open in Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) @@ -21,62 +21,63 @@ CO_OP_TRANSLATOR_METADATA: [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) [![GitHub stars](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) + [![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -Phi represents a collection of open-source AI models developed by Microsoft. +Phi هو سلسلة من نماذج الذكاء الاصطناعي مفتوحة المصدر التي طورتها Microsoft. -Currently, Phi stands out as the most advanced and cost-efficient small language model (SLM), delivering impressive results in multilingual tasks, reasoning, text/chat generation, coding, image processing, audio tasks, and beyond. +يُعد Phi حالياً أقوى نموذج لغة صغيرة (SLM) وأكثرها فعالية من حيث التكلفة، مع أداء ممتاز في عدة لغات، والتفكير، وتوليد النصوص/الدردشة، والبرمجة، والصور، والصوت، وسيناريوهات أخرى. -Phi can be deployed both in the cloud and on edge devices, enabling the creation of generative AI applications even with limited computational resources. +يمكنك نشر Phi في السحابة أو على أجهزة الحافة، ويمكنك بسهولة بناء تطبيقات الذكاء الاصطناعي التوليدي حتى مع قدرة حوسبة محدودة. -Here's how you can get started with these resources: -1. **Fork the Repository**: Click [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **Clone the Repository**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Join The Microsoft AI Discord Community to connect with experts and fellow developers**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +اتبع هذه الخطوات للبدء باستخدام هذه الموارد: +1. **افتح نسخة من المستودع (Fork the Repository)**: اضغط على [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **انسخ المستودع (Clone the Repository)**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**انضم إلى مجتمع Microsoft AI على Discord وتعرف على الخبراء والمطورين الآخرين**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.mo.png) -## 🌐 Support for Multiple Languages -[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文 (法尔西文)](../fa/README.md) | [乌尔都文](../ur/README.md) | [简体中文](../zh/README.md) | [繁体中文 (澳門)](./README.md) | [繁体中文 (香港)](../hk/README.md) | [繁体中文 (台湾)](../tw/README.md) | [日文](../ja/README.md) | [韩文](../ko/README.md) | [印地文](../hi/README.md) | [孟加拉文](../bn/README.md) | [马拉地文](../mr/README.md) | [尼泊尔文](../ne/README.md) | [旁遮普文 (古木基文)](../pa/README.md) | [葡萄牙文 (葡萄牙)](../pt/README.md) | [葡萄牙文 (巴西)](../br/README.md) | [意大利文](../it/README.md) | [波兰文](../pl/README.md) | [土耳其文](../tr/README.md) | [希腊文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麦文](../da/README.md) | [挪威文](../no/README.md) | [芬兰文](../fi/README.md) | [荷兰文](../nl/README.md) | [希伯来文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [马来文](../ms/README.md) | [塔加洛文 (菲律宾文)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [罗马尼亚文](../ro/README.md) | [保加利亚文](../bg/README.md) | [塞尔维亚文 (西里尔文)](../sr/README.md) | [克罗地亚文](../hr/README.md) | [斯洛文尼亚文](../sl/README.md) +## 🌐 دعم متعدد اللغات +[French](../fr/README.md) | [Spanish](../es/README.md) | [German](../de/README.md) | [Russian](../ru/README.md) | [Arabic](../ar/README.md) | [Persian (Farsi)](../fa/README.md) | [Urdu](../ur/README.md) | [Chinese (Simplified)](../zh/README.md) | [Chinese (Traditional, Macau)](./README.md) | [Chinese (Traditional, Hong Kong)](../hk/README.md) | [Chinese (Traditional, Taiwan)](../tw/README.md) | [Japanese](../ja/README.md) | [Korean](../ko/README.md) | [Hindi](../hi/README.md) [Bengali](../bn/README.md) | [Marathi](../mr/README.md) | [Nepali](../ne/README.md) | [Punjabi (Gurmukhi)](../pa/README.md) | [Portuguese (Portugal)](../pt/README.md) | [Portuguese (Brazil)](../br/README.md) | [Italian](../it/README.md) | [Polish](../pl/README.md) | [Turkish](../tr/README.md) | [Greek](../el/README.md) | [Thai](../th/README.md) | [Swedish](../sv/README.md) | [Danish](../da/README.md) | [Norwegian](../no/README.md) | [Finnish](../fi/README.md) | [Dutch](../nl/README.md) | [Hebrew](../he/README.md) | [Vietnamese](../vi/README.md) | [Indonesian](../id/README.md) | [Malay](../ms/README.md) | [Tagalog (Filipino)](../tl/README.md) | [Swahili](../sw/README.md) | [Hungarian](../hu/README.md) | [Czech](../cs/README.md) | [Slovak](../sk/README.md) | [Romanian](../ro/README.md) | [Bulgarian](../bg/README.md) | [Serbian (Cyrillic)](../sr/README.md) | [Croatian](../hr/README.md) | [Slovenian](../sl/README.md) ## Table of Contents -- مقدمة - - [مرحبًا بك في عائلة Phi](./md/01.Introduction/01/01.PhiFamily.md) - - [إعداد بيئتك](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [فهم التقنيات الأساسية](./md/01.Introduction/01/01.Understandingtech.md) - - [سلامة الذكاء الاصطناعي لنماذج Phi](./md/01.Introduction/01/01.AISafety.md) - - [دعم الأجهزة لنماذج Phi](./md/01.Introduction/01/01.Hardwaresupport.md) - - [نماذج Phi وتوفرها عبر المنصات](./md/01.Introduction/01/01.Edgeandcloud.md) - - [استخدام Guidance-ai وPhi](./md/01.Introduction/01/01.Guidance.md) - - [نماذج GitHub Marketplace](https://github.com/marketplace/models) - - [كتالوج نماذج Azure AI](https://ai.azure.com) - -- استنتاج Phi في بيئات مختلفة - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [نماذج GitHub](./md/01.Introduction/02/02.GitHubModel.md) - - [كتالوج نماذج Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [أداة الذكاء الاصطناعي لـ VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- استنتاج عائلة Phi - - [استنتاج Phi في iOS](./md/01.Introduction/03/iOS_Inference.md) - - [استنتاج Phi في Android](./md/01.Introduction/03/Android_Inference.md) - - [استنتاج Phi في Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [استنتاج Phi في أجهزة الكمبيوتر الذكية](./md/01.Introduction/03/AIPC_Inference.md) - - [استنتاج Phi باستخدام إطار عمل Apple MLX](./md/01.Introduction/03/MLX_Inference.md) - - [استنتاج Phi في الخادم المحلي](./md/01.Introduction/03/Local_Server_Inference.md) - - [استنتاج Phi في الخادم البعيد باستخدام أداة الذكاء الاصطناعي](./md/01.Introduction/03/Remote_Interence.md) - - [استنتاج Phi باستخدام Rust](./md/01.Introduction/03/Rust_Inference.md) - - [استنتاج Phi--Vision محليًا](./md/01.Introduction/03/Vision_Inference.md) - - [استنتاج Phi باستخدام Kaito AKS، حاويات Azure (الدعم الرسمي)](./md/01.Introduction/03/Kaito_Inference.md) -- [تكميم عائلة Phi](./md/01.Introduction/04/QuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام إضافات الذكاء الاصطناعي التوليدي لـ onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [تكميم Phi-3.5 / 4 باستخدام إطار عمل Apple MLX](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- تقييم Phi +- Introduction + - [Welcome to the Phi Family](./md/01.Introduction/01/01.PhiFamily.md) + - [Setting up your environment](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [Understanding Key Technologies](./md/01.Introduction/01/01.Understandingtech.md) + - [AI Safety for Phi Models](./md/01.Introduction/01/01.AISafety.md) + - [Phi Hardware Support](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Phi Models & Availability across platforms](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Using Guidance-ai and Phi](./md/01.Introduction/01/01.Guidance.md) + - [GitHub Marketplace Models](https://github.com/marketplace/models) + - [Azure AI Model Catalog](https://ai.azure.com) + +- Inference Phi in different environment + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub Models](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry Model Catalog](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Inference Phi Family + - [Inference Phi in iOS](./md/01.Introduction/03/iOS_Inference.md) + - [Inference Phi in Android](./md/01.Introduction/03/Android_Inference.md) + - [Inference Phi in Jetson](./md/01.Introduction/03/Jetson_Inference.md) + - [Inference Phi in AI PC](./md/01.Introduction/03/AIPC_Inference.md) + - [Inference Phi with Apple MLX Framework](./md/01.Introduction/03/MLX_Inference.md) + - [Inference Phi in Local Server](./md/01.Introduction/03/Local_Server_Inference.md) + - [Inference Phi in Remote Server using AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) + - [Inference Phi with Rust](./md/01.Introduction/03/Rust_Inference.md) + - [Inference Phi--Vision in Local](./md/01.Introduction/03/Vision_Inference.md) + - [Inference Phi with Kaito AKS, Azure Containers(official support)](./md/01.Introduction/03/Kaito_Inference.md) +- [Quantifying Phi Family](./md/01.Introduction/04/QuantifyingPhi.md) + - [Quantizing Phi-3.5 / 4 using llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [Quantizing Phi-3.5 / 4 using Generative AI extensions for onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Quantizing Phi-3.5 / 4 using Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Quantizing Phi-3.5 / 4 using Apple MLX Framework](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Evaluation Phi - [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) @@ -97,7 +98,7 @@ Here's how you can get started with these resources: - [MLFlow - Building a wrapper and using Phi-3 with MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - [Model Optimization - How to optimize Phi-3-min model for ONNX Runtime Web with Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) - [WinUI3 App with Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 Multi Model AI Powered Notes App Sample](https://github.com/microsoft/ai-powered-notes-winui3-sample) + -[WinUI3 Multi Model AI Powered Notes App Sample](https://github.com/microsoft/ai-powered-notes-winui3-sample) - [Fine-tune and Integrate custom Phi-3 models with Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - [Fine-tune and Integrate custom Phi-3 models with Prompt flow in Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - [Evaluate the Fine-tuned Phi-3 / Phi-3.5 Model in Azure AI Foundry Focusing on Microsoft's Responsible AI Principles](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) @@ -117,60 +118,61 @@ Here's how you can get started with these resources: - Advanced Reasoning Samples - Phi-4 Samples 🆕 - - [📓] [Phi-4-mini Reasoning Samples](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - Demos - - [Phi-4-mini demos hosted on Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Phi-4-multimodal demos hosted on Hugginge Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - Vision Samples - - Phi-4 Samples 🆕 - - [📓] [Use Phi-4-multimodal to read images and generate code](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 Samples -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - Visual language assistant - with Phi3-Vision and OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision multi-frame or multi-image sample](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision Local ONNX Model using the Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [Menu based Phi-3 Vision Local ONNX Model using the Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - - نماذج الصوت - - عينات Phi-4 🆕 - - [📓] [استخراج النصوص الصوتية باستخدام Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [عينة صوتية Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [عينة ترجمة الكلام Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET console application باستخدام Phi-4-multimodal لتحليل ملف صوتي وإنشاء نصوص](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - - نماذج MOE - - عينات Phi-3 / 3.5 - - [📓] [نماذج Phi-3.5 Mixture of Experts (MoEs) عينة وسائل التواصل الاجتماعي](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [بناء خط أنابيب Retrieval-Augmented Generation (RAG) باستخدام NVIDIA NIM Phi-3 MOE، Azure AI Search، وLlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - - نماذج استدعاء الوظائف - - عينات Phi-4 🆕 - - [📓] [استخدام استدعاء الوظائف مع Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [استخدام استدعاء الوظائف لإنشاء وكلاء متعددين مع Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [استخدام استدعاء الوظائف مع Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - - نماذج مزج متعدد الوسائط - - عينات Phi-4 🆕 - - [📓] [استخدام Phi-4-multimodal كصحفي تقني](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET console application باستخدام Phi-4-multimodal لتحليل الصور](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- نماذج تحسين Phi - - [سيناريوهات تحسين الأداء](./md/03.FineTuning/FineTuning_Scenarios.md) - - [تحسين الأداء مقابل RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [تحسين الأداء لجعل Phi-3 خبيرًا صناعيًا](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [تحسين الأداء لـPhi-3 باستخدام أدوات الذكاء الاصطناعي لـVS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [تحسين الأداء لـPhi-3 باستخدام خدمة Azure Machine Learning](./md/03.FineTuning/Introduce_AzureML.md) - - [تحسين الأداء لـPhi-3 باستخدام Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [تحسين الأداء لـPhi-3 باستخدام QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [تحسين الأداء لـPhi-3 باستخدام Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [تحسين الأداء لـPhi-3 باستخدام Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Fine-tuning with Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [📓] [Phi-4-mini-reasoning or Phi-4-reasoning Samples](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Fine-tuning Phi-4-mini-reasoning with Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Fine-tuning Phi-4-mini-reasoning with Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning with GitHub Models](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini razonamiento con modelos Azure AI Foundry](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - Demostraciones + - [Demos Phi-4-mini alojados en Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Demos Phi-4-multimodal alojados en Hugginge Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - Ejemplos de Visión + - Ejemplos Phi-4 🆕 + - [📓] [Usar Phi-4-multimodal para leer imágenes y generar código](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Ejemplos Phi-3 / 3.5 + - [📓][Phi-3-vision-Texto de imagen a texto](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) + - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [DEMO: Reciclaje Phi-3](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - Asistente de lenguaje visual - con Phi3-Vision y OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) + - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) + - [📓][Phi-3.5 Vision muestra multi-frame o multi-imagen](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Modelo ONNX local Phi-3 Vision usando Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [Modelo ONNX local Phi-3 Vision basado en menú usando Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + + - Ejemplos de Audio + - Ejemplos Phi-4 🆕 + - [📓] [Extrayendo transcripciones de audio usando Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Ejemplo de audio Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Ejemplo de traducción de voz con Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [Aplicación consola .NET usando Phi-4-multimodal Audio para analizar un archivo de audio y generar transcripción](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + + - Ejemplos MOE + - Ejemplos Phi-3 / 3.5 + - [📓] [Modelos Mixture of Experts (MoEs) Phi-3.5 para redes sociales](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [Construyendo un pipeline Retrieval-Augmented Generation (RAG) con NVIDIA NIM Phi-3 MOE, Azure AI Search y LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - Ejemplos de Llamada a Funciones + - Ejemplos Phi-4 🆕 + - [📓] [Usando llamada a funciones con Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Usando llamada a funciones para crear multi-agentes con Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Usando llamada a funciones con Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - Ejemplos de mezcla multimodal + - Ejemplos Phi-4 🆕 + - [📓] [Usando Phi-4-multimodal como periodista tecnológico](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [Aplicación consola .NET usando Phi-4-multimodal para analizar imágenes](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Ejemplos de Fine-tuning Phi + - [Escenarios de Fine-tuning](./md/03.FineTuning/FineTuning_Scenarios.md) + - [Fine-tuning vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [Fine-tuning para que Phi-3 se convierta en experto de la industria](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [Fine-tuning Phi-3 con AI Toolkit para VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Fine-tuning Phi-3 con Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) +- [Fine-tuning Phi-3 with Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [Fine-tuning Phi-3 with QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [Fine-tuning Phi-3 with Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Fine-tuning Phi-3 with Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Fine-tuning with Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - [Fine-tuning with Microsoft Olive Hands-On Lab](./md/03.FineTuning/olive-lab/readme.md) - [Fine-tuning Phi-3-vision with Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - [Fine-tuning Phi-3 with Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) @@ -178,7 +180,7 @@ Here's how you can get started with these resources: - [Fine-Tuning Phi-3 with Kaito AKS , Azure Containers(official Support)](./md/03.FineTuning/FineTuning_Kaito.md) - [Fine-Tuning Phi-3 and 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) -- Hands-on Lab +- Hands on Lab - [Exploring cutting-edge models: LLMs, SLMs, local development and more](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - [Unlocking NLP Potential: Fine-Tuning with Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) @@ -189,44 +191,52 @@ Here's how you can get started with these resources: - [Phi-4-Mini Technical Report: Compact yet Powerful Multimodal Language Models via Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) - [Optimizing Small Language Models for In-Vehicle Function-Calling](https://arxiv.org/abs/2501.02342) - [(WhyPHI) Fine-Tuning PHI-3 for Multiple-Choice Question Answering: Methodology, Results, and Challenges](https://arxiv.org/abs/2501.01588) + - [Phi-4-reasoning Technical Report](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini-reasoning Technical Report](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) ## Using Phi Models ### Phi on Azure AI Foundry -Learn how to use Microsoft Phi and build end-to-end solutions across various hardware devices. To get started with Phi, explore the models and customize them for your specific needs using the [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai). For additional details, refer to [Getting Started with Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). +You can learn how to use Microsoft Phi and how to build E2E solutions on your various hardware devices. To try Phi yourself, start by experimenting with the models and customizing Phi for your use cases using the [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai). For more details, see Getting Started with [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) **Playground** -Each model offers a dedicated playground for testing: [Azure AI Playground](https://aka.ms/try-phi3). +Each model has its own playground to test it: [Azure AI Playground](https://aka.ms/try-phi3). ### Phi on GitHub Models -Discover how to use Microsoft Phi and create end-to-end solutions across different hardware setups. Begin by exploring and customizing the model for your scenarios through the [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). For more information, see [Getting Started with GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md). +You can learn how to use Microsoft Phi and build end-to-end solutions on your different hardware devices. To get hands-on with Phi, start by experimenting with the model and customizing Phi for your scenarios using the [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Learn more at Getting Started with [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) **Playground** -Each model provides a [playground for testing](/md/02.QuickStart/GitHubModel_QuickStart.md). +Each model has a dedicated [playground to test the model](/md/02.QuickStart/GitHubModel_QuickStart.md). ### Phi on Hugging Face -The model is also available on [Hugging Face](https://huggingface.co/microsoft). +You can also find the model on [Hugging Face](https://huggingface.co/microsoft). **Playground** -Explore the [Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct). +[Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## Responsible AI +## Responsible AI -Microsoft is dedicated to helping customers use AI solutions responsibly, sharing best practices, and fostering trust through tools like Transparency Notes and Impact Assessments. Many of these resources are accessible at [https://aka.ms/RAI](https://aka.ms/RAI). -Microsoft’s approach to responsible AI is rooted in its principles of fairness, reliability and safety, privacy and security, inclusiveness, transparency, and accountability. +Microsoft is committed to helping customers use our AI products responsibly, sharing what we’ve learned, and building trust through tools like Transparency Notes and Impact Assessments. Many of these resources are available at [https://aka.ms/RAI](https://aka.ms/RAI). +Microsoft’s approach to responsible AI is based on our core AI principles: fairness, reliability and safety, privacy and security, inclusiveness, transparency, and accountability. +Large-scale natural language, image, and speech models - like the ones used in this sample - can potentially behave in ways that are unfair, unreliable, or offensive, in turn causing harms. Please consult the [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) to be informed about risks and limitations. -Large-scale models for natural language, image, and speech tasks—like those showcased here—can occasionally exhibit behavior that is unfair, unreliable, or offensive, potentially leading to harm. Review the [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) for insights into risks and limitations. +The recommended approach to mitigating these risks is to include a safety system in your architecture that can detect and prevent harmful behavior. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) provides an independent layer of protection, able to detect harmful user-generated and AI-generated content in applications and services. Azure AI Content Safety includes text and image APIs that allow you to detect material that is harmful. Within Azure AI Foundry, the Content Safety service allows you to view, explore and try out sample code for detecting harmful content across different modalities. The following [quickstart documentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) guides you through making requests to the service. -To mitigate these risks, it’s recommended to incorporate a safety system into your architecture to detect and prevent harmful behavior. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) offers an independent layer of protection, capable of identifying harmful content generated by users or AI in applications and services. Azure AI Content Safety provides APIs for text and image analysis to detect harmful material. Within Azure AI Foundry, the Content Safety service includes sample code to explore and test content detection across modalities. Refer to the [quickstart documentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) for guidance on making service requests. +Another aspect to take into account is the overall application performance. With multi-modal and multi-models applications, we consider performance to mean that the system performs as you and your users expect, including not generating harmful outputs. It's important to assess the performance of your overall application using [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). You also have the ability to create and evaluate with [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Performance is another key consideration for applications involving multi-modal and multi-model setups. Performance refers to the system meeting expectations, including avoiding harmful outputs. Evaluate your application’s overall performance using [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). You can also create and assess [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -You can evaluate your AI application in your development environment using the [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). By using either a test dataset or a target, the outputs of your generative AI application are quantitatively assessed with built-in evaluators or custom evaluators tailored to your needs. To begin using the Azure AI Evaluation SDK to assess your system, refer to the [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). After executing an evaluation run, you can [view the results in Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). +You can evaluate your AI application in your development environment using the [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). Given either a test dataset or a target, your generative AI application generations are quantitatively measured with built-in evaluators or custom evaluators of your choice. To get started with the azure ai evaluation sdk to evaluate your system, you can follow the [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). Once you execute an evaluation run, you can [visualize the results in Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). ## Trademarks -This project may include trademarks or logos associated with projects, products, or services. Any authorized use of Microsoft trademarks or logos must adhere to [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). Use of Microsoft trademarks or logos in modified versions of this project must avoid causing confusion or implying Microsoft sponsorship. The use of third-party trademarks or logos must comply with those third parties' policies. +This project may contain trademarks or logos for projects, products, or services. Authorized use of Microsoft trademarks or logos is subject to and must follow [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). +Use of Microsoft trademarks or logos in modified versions of this project must not cause confusion or imply Microsoft sponsorship. Any use of third-party trademarks or logos are subject to those third-party's policies. + +**Disclaimer**: +This document has been translated using AI translation service [Co-op Translator](https://github.com/Azure/co-op-translator). While we strive for accuracy, please be aware that automated translations may contain errors or inaccuracies. The original document in its native language should be considered the authoritative source. For critical information, professional human translation is recommended. We are not liable for any misunderstandings or misinterpretations arising from the use of this translation. + +--- -It seems you are requesting a translation to "mo." Could you clarify what "mo" refers to? Are you asking for a translation into Māori, Mongolian, or perhaps another language? Let me know so I can assist you accurately! \ No newline at end of file +Could you please clarify what language "mo" refers to? There are several possibilities (e.g., Moldovan, Mo language), and I want to ensure I provide the correct translation. \ No newline at end of file diff --git a/translations/ru/README.md b/translations/ru/README.md index ea3171e6..e7090d78 100644 --- a/translations/ru/README.md +++ b/translations/ru/README.md @@ -1,29 +1,44 @@ # Phi Cookbook: Практические примеры с моделями Phi от Microsoft -Phi — это серия моделей искусственного интеллекта с открытым исходным кодом, разработанных Microsoft. +[![Открыть и использовать примеры в GitHub Codespaces](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Открыть в Dev Containers](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi в настоящее время является самой мощной и экономичной небольшой языковой моделью (SLM), демонстрирующей отличные результаты в многоязычной обработке, рассуждении, генерации текста/чата, кодировании, работе с изображениями, аудио и других сценариях. +[![Участники GitHub](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![Проблемы GitHub](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![Запросы на слияние GitHub](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PRs Welcome](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -Вы можете развернуть Phi в облаке или на периферийных устройствах, а также легко создавать приложения генеративного ИИ с ограниченными вычислительными ресурсами. +[![Наблюдатели GitHub](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![Форки GitHub](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![Звёзды GitHub](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) + + +[![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi — это серия открытых моделей искусственного интеллекта, разработанных Microsoft. + +В настоящее время Phi является самой мощной и экономичной небольшой языковой моделью (SLM) с отличными результатами в многоязычии, логическом мышлении, генерации текста/чата, программировании, работе с изображениями, аудио и других сценариях. + +Вы можете развернуть Phi в облаке или на периферийных устройствах, а также легко создавать генеративные AI-приложения с ограниченными вычислительными ресурсами. Следуйте этим шагам, чтобы начать работу с этими ресурсами: 1. **Сделайте форк репозитория**: Нажмите [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) 2. **Клонируйте репозиторий**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**Присоединяйтесь к сообществу Microsoft AI в Discord и познакомьтесь с экспертами и другими разработчиками**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +3. [**Присоединяйтесь к сообществу Microsoft AI в Discord, чтобы общаться с экспертами и другими разработчиками**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.ru.png) -## 🌐 Поддержка многоязычности -[Французский](../fr/README.md) | [Испанский](../es/README.md) | [Немецкий](../de/README.md) | [Русский](./README.md) | [Арабский](../ar/README.md) | [Персидский (Фарси)](../fa/README.md) | [Урду](../ur/README.md) | [Китайский (упрощенный)](../zh/README.md) | [Китайский (традиционный, Макао)](../mo/README.md) | [Китайский (традиционный, Гонконг)](../hk/README.md) | [Китайский (традиционный, Тайвань)](../tw/README.md) | [Японский](../ja/README.md) | [Корейский](../ko/README.md) | [Хинди](../hi/README.md) | [Бенгальский](../bn/README.md) | [Маратхи](../mr/README.md) | [Непальский](../ne/README.md) | [Панджаби (Гурмукхи)](../pa/README.md) | [Португальский (Португалия)](../pt/README.md) | [Португальский (Бразилия)](../br/README.md) | [Итальянский](../it/README.md) | [Польский](../pl/README.md) | [Турецкий](../tr/README.md) | [Греческий](../el/README.md) | [Тайский](../th/README.md) | [Шведский](../sv/README.md) | [Датский](../da/README.md) | [Норвежский](../no/README.md) | [Финский](../fi/README.md) | [Нидерландский](../nl/README.md) | [Иврит](../he/README.md) | [Вьетнамский](../vi/README.md) | [Индонезийский](../id/README.md) | [Малайский](../ms/README.md) | [Тагалог (Филиппинский)](../tl/README.md) | [Суахили](../sw/README.md) | [Венгерский](../hu/README.md) | [Чешский](../cs/README.md) | [Словацкий](../sk/README.md) | [Румынский](../ro/README.md) | [Болгарский](../bg/README.md) | [Сербский (Кириллица)](../sr/README.md) | [Хорватский](../hr/README.md) | [Словенский](../sl/README.md) +## 🌐 Поддержка нескольких языков +[Французский](../fr/README.md) | [Испанский](../es/README.md) | [Немецкий](../de/README.md) | [Русский](./README.md) | [Арабский](../ar/README.md) | [Персидский (Фарси)](../fa/README.md) | [Урду](../ur/README.md) | [Китайский (упрощенный)](../zh/README.md) | [Китайский (традиционный, Макао)](../mo/README.md) | [Китайский (традиционный, Гонконг)](../hk/README.md) | [Китайский (традиционный, Тайвань)](../tw/README.md) | [Японский](../ja/README.md) | [Корейский](../ko/README.md) | [Хинди](../hi/README.md) [Бенгальский](../bn/README.md) | [Маратхи](../mr/README.md) | [Непальский](../ne/README.md) | [Пенджабский (Гурмукхи)](../pa/README.md) | [Португальский (Португалия)](../pt/README.md) | [Португальский (Бразилия)](../br/README.md) | [Итальянский](../it/README.md) | [Польский](../pl/README.md) | [Турецкий](../tr/README.md) | [Греческий](../el/README.md) | [Тайский](../th/README.md) | [Шведский](../sv/README.md) | [Датский](../da/README.md) | [Норвежский](../no/README.md) | [Финский](../fi/README.md) | [Нидерландский](../nl/README.md) | [Иврит](../he/README.md) | [Вьетнамский](../vi/README.md) | [Индонезийский](../id/README.md) | [Малайский](../ms/README.md) | [Тагальский (филиппинский)](../tl/README.md) | [Суахили](../sw/README.md) | [Венгерский](../hu/README.md) | [Чешский](../cs/README.md) | [Словацкий](../sk/README.md) | [Румынский](../ro/README.md) | [Болгарский](../bg/README.md) | [Сербский (кириллица)](../sr/README.md) | [Хорватский](../hr/README.md) | [Словенский](../sl/README.md) ## Содержание - Введение @@ -31,187 +46,192 @@ Phi в настоящее время является самой мощной и - [Настройка вашей среды](./md/01.Introduction/01/01.EnvironmentSetup.md) - [Понимание ключевых технологий](./md/01.Introduction/01/01.Understandingtech.md) - [Безопасность ИИ для моделей Phi](./md/01.Introduction/01/01.AISafety.md) - - [Поддержка оборудования Phi](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Поддержка аппаратного обеспечения Phi](./md/01.Introduction/01/01.Hardwaresupport.md) - [Модели Phi и их доступность на разных платформах](./md/01.Introduction/01/01.Edgeandcloud.md) - [Использование Guidance-ai и Phi](./md/01.Introduction/01/01.Guidance.md) - [Модели на GitHub Marketplace](https://github.com/marketplace/models) - [Каталог моделей Azure AI](https://ai.azure.com) -- Использование Phi в различных средах - - [Hugging Face](./md/01.Introduction/02/01.HF.md) - - [Модели GitHub](./md/01.Introduction/02/02.GitHubModel.md) - - [Каталог моделей Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- Использование семьи Phi - - [Использование Phi в iOS](./md/01.Introduction/03/iOS_Inference.md) - - [Использование Phi в Android](./md/01.Introduction/03/Android_Inference.md) - - [Использование Phi в Jetson](./md/01.Introduction/03/Jetson_Inference.md) - - [Использование Phi в AI PC](./md/01.Introduction/03/AIPC_Inference.md) - - [Использование Phi с Apple MLX Framework](./md/01.Introduction/03/MLX_Inference.md) - - [Использование Phi на локальном сервере](./md/01.Introduction/03/Local_Server_Inference.md) - - [Использование Phi на удалённом сервере с AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) - - [Использование Phi с Rust](./md/01.Introduction/03/Rust_Inference.md) - - [Использование Phi--Vision локально](./md/01.Introduction/03/Vision_Inference.md) - - [Использование Phi с Kaito AKS, контейнерами Azure (официальная поддержка)](./md/01.Introduction/03/Kaito_Inference.md) - -- [Квантование семьи Phi](./md/01.Introduction/04/QuantifyingPhi.md) - - [Квантование Phi-3.5 / 4 с использованием llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [Квантование Phi-3.5 / 4 с использованием расширений Generative AI для onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [Квантование Phi-3.5 / 4 с использованием Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Квантование Phi-3.5 / 4 с использованием Apple MLX Framework](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) +- Запуск Phi в разных средах + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [Модели на GitHub](./md/01.Introduction/02/02.GitHubModel.md) + - [Каталог моделей Azure AI Foundry](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit для VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Запуск Phi Family + - [Запуск Phi на iOS](./md/01.Introduction/03/iOS_Inference.md) + - [Запуск Phi на Android](./md/01.Introduction/03/Android_Inference.md) + - [Запуск Phi на Jetson](./md/01.Introduction/03/Jetson_Inference.md) + - [Запуск Phi на AI PC](./md/01.Introduction/03/AIPC_Inference.md) + - [Запуск Phi с помощью Apple MLX Framework](./md/01.Introduction/03/MLX_Inference.md) + - [Запуск Phi на локальном сервере](./md/01.Introduction/03/Local_Server_Inference.md) + - [Запуск Phi на удалённом сервере с использованием AI Toolkit](./md/01.Introduction/03/Remote_Interence.md) + - [Запуск Phi с Rust](./md/01.Introduction/03/Rust_Inference.md) + - [Запуск Phi--Vision локально](./md/01.Introduction/03/Vision_Inference.md) + - [Запуск Phi с Kaito AKS, Azure Containers (официальная поддержка)](./md/01.Introduction/03/Kaito_Inference.md) +- [Квантизация Phi Family](./md/01.Introduction/04/QuantifyingPhi.md) + - [Квантизация Phi-3.5 / 4 с использованием llama.cpp](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [Квантизация Phi-3.5 / 4 с помощью расширений Generative AI для onnxruntime](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Квантизация Phi-3.5 / 4 с использованием Intel OpenVINO](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Квантизация Phi-3.5 / 4 с использованием Apple MLX Framework](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - Оценка Phi -- [Ответственный подход к ИИ](./md/01.Introduction/05/ResponsibleAI.md) +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) - [Azure AI Foundry для оценки](./md/01.Introduction/05/AIFoundry.md) - [Использование Promptflow для оценки](./md/01.Introduction/05/Promptflow.md) - + - RAG с Azure AI Search - [Как использовать Phi-4-mini и Phi-4-multimodal (RAG) с Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - Примеры разработки приложений Phi - - Приложения для текста и чатов + - Текстовые и чат-приложения - Примеры Phi-4 🆕 - [📓] [Чат с моделью Phi-4-mini ONNX](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - [Чат с локальной моделью Phi-4 ONNX на .NET](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [Консольное приложение чата .NET с Phi-4 ONNX с использованием Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [Консольное чат-приложение на .NET с Phi-4 ONNX и Semantic Kernel](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - Примеры Phi-3 / 3.5 - - [Локальный чат-бот в браузере с использованием Phi3, ONNX Runtime Web и WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [Чат OpenVino](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [Мульти-модель - интерактивное использование Phi-3-mini и OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - создание обёртки и использование Phi-3 с MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [Оптимизация модели - как оптимизировать модель Phi-3-min для ONNX Runtime Web с помощью Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [Приложение WinUI3 с Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [Пример приложения заметок на WinUI3 с поддержкой ИИ](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [Тонкая настройка и интеграция пользовательских моделей Phi-3 с Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Тонкая настройка и интеграция пользовательских моделей Phi-3 с Prompt flow в Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Оценка доработанных моделей Phi-3 / Phi-3.5 в Azure AI Foundry с учётом принципов ответственного подхода к ИИ от Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Пример предсказания языка с Phi-3.5-mini-instruct (китайский/английский)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Чат-бот RAG на Phi-3.5-Instruct с использованием WebGPU](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Использование GPU Windows для создания решения Prompt flow с Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [Использование Microsoft Phi-3.5 tflite для создания приложения на Android](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Пример вопросов и ответов на .NET с локальной моделью ONNX Phi-3 с использованием Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) - - [Консольное приложение чата на .NET с Semantic Kernel и Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Примеры на основе SDK для вывода Azure AI + - [Локальный чатбот в браузере с использованием Phi3, ONNX Runtime Web и WebGPU](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVino Chat](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [Мультимодель - интерактивный Phi-3-mini и OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - создание обертки и использование Phi-3 с MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [Оптимизация модели - как оптимизировать Phi-3-mini для ONNX Runtime Web с Olive](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [WinUI3 приложение с Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + - [WinUI3 Мультимодельное приложение для заметок с ИИ](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [Тонкая настройка и интеграция кастомных моделей Phi-3 с Prompt flow](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Тонкая настройка и интеграция кастомных моделей Phi-3 с Prompt flow в Azure AI Foundry](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Оценка тонко настроенной модели Phi-3 / Phi-3.5 в Azure AI Foundry с акцентом на принципы ответственного ИИ Microsoft](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Пример предсказания языка Phi-3.5-mini-instruct (китайский/английский)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Phi-3.5-Instruct WebGPU RAG чатбот](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [Использование Windows GPU для создания решения Prompt flow с Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Использование Microsoft Phi-3.5 tflite для создания Android-приложения](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Пример Q&A на .NET с локальной моделью ONNX Phi-3 с Microsoft.ML.OnnxRuntime](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Консольное чат-приложение на .NET с Semantic Kernel и Phi-3](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Примеры кода с использованием Azure AI Inference SDK - Примеры Phi-4 🆕 - - [📓] [Создание кода проекта с использованием Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - [📓] [Генерация кода проекта с использованием Phi-4-multimodal](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - Примеры Phi-3 / 3.5 - - [Создайте собственный чат Copilot для Visual Studio Code с семейством Microsoft Phi-3](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [Создайте собственного агента чата Copilot для Visual Studio Code с Phi-3.5 с использованием моделей GitHub](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [Создайте собственный чат GitHub Copilot для Visual Studio Code с Microsoft Phi-3 Family](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [Создайте собственного агента чата для Visual Studio Code с Phi-3.5 на базе моделей GitHub](./md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - Примеры для сложных рассуждений + - Примеры расширенного рассуждения - Примеры Phi-4 🆕 - - [📓] [Примеры рассуждений с Phi-4-mini](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - + - [📓] [Примеры Phi-4-mini-reasoning или Phi-4-reasoning](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Тонкая настройка Phi-4-mini-reasoning с помощью Microsoft Olive](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Тонкая настройка Phi-4-mini-reasoning с Apple MLX](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Phi-4-mini-reasoning с моделями GitHub](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini reasoning с моделями Azure AI Foundry](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) - Демонстрации - - [Демонстрации Phi-4-mini, размещённые на Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Демонстрации Phi-4-multimodal, размещённые на Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - Примеры для работы с изображениями + - [Phi-4-mini демонстрации на Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-мультимодальные демонстрации на Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - Примеры Vision - Примеры Phi-4 🆕 - - [📓] [Использование Phi-4-multimodal для чтения изображений и генерации кода](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - [📓] [Использование Phi-4-мультимодального для чтения изображений и генерации кода](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - Примеры Phi-3 / 3.5 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [📓][Phi-3-vision: преобразование текста на изображении в текст](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [ДЕМО: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - Визуальный языковой ассистент - с Phi3-Vision и OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3-vision - Визуальный языковой ассистент с Phi3-Vision и OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - [📓][Phi-3.5 Vision пример с несколькими кадрами или изображениями](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision Локальная ONNX модель с использованием Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [Phi-3 Vision Локальная ONNX модель с меню с использованием Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + - [Phi-3 Vision локальная ONNX модель с использованием Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [Меню для Phi-3 Vision локальной ONNX модели с использованием Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - Аудио примеры - - Phi-4 Примеры 🆕 - - [📓] [Извлечение аудио транскрипций с помощью Phi-4-multimodal](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Аудио пример Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Пример перевода речи с помощью Phi-4-multimodal](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET консольное приложение с использованием Phi-4-multimodal для анализа аудиофайла и создания транскрипции](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - Примеры Audio + - Примеры Phi-4 🆕 + - [📓] [Извлечение транскриптов аудио с помощью Phi-4-мультимодального](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Пример аудио с Phi-4-мультимодальным](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Пример перевода речи с Phi-4-мультимодальным](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [.NET консольное приложение с использованием Phi-4-мультимодального Audio для анализа аудиофайла и генерации транскрипта](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - Примеры MOE - - Phi-3 / 3.5 Примеры - - [📓] [Phi-3.5 Модели смеси экспертов (MoEs) Пример для социальных сетей](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [Создание конвейера генерации с использованием поиска и извлечения (RAG) с NVIDIA NIM Phi-3 MOE, Azure AI Search и LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - Примеры Phi-3 / 3.5 + - [📓] [Пример модели Mixture of Experts (MoEs) Phi-3.5 для социальных сетей](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [Построение RAG-пайплайна с NVIDIA NIM Phi-3 MOE, Azure AI Search и LlamaIndex](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - Примеры вызова функций - - Phi-4 Примеры 🆕 + - Примеры Phi-4 🆕 - [📓] [Использование вызова функций с Phi-4-mini](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [Использование вызова функций для создания мульти-агентов с Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Использование вызова функций для создания мультиагентов с Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - [📓] [Использование вызова функций с Ollama](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - Примеры мультимодального смешивания - - Phi-4 Примеры 🆕 - - [📓] [Использование Phi-4-multimodal в качестве журналиста технологий](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET консольное приложение с использованием Phi-4-multimodal для анализа изображений](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + - Примеры Phi-4 🆕 + - [📓] [Использование Phi-4-мультимодального в роли технологического журналиста](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET консольное приложение с использованием Phi-4-мультимодального для анализа изображений](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - Примеры тонкой настройки Phi - [Сценарии тонкой настройки](./md/03.FineTuning/FineTuning_Scenarios.md) - - [Тонкая настройка vs RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Тонкая настройка: Пусть Phi-3 станет экспертом в отрасли](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [Тонкая настройка Phi-3 с помощью AI Toolkit для VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Тонкая настройка Phi-3 с использованием Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) - - [Тонкая настройка Phi-3 с помощью Lora](./md/03.FineTuning/FineTuning_Lora.md) - - [Тонкая настройка Phi-3 с помощью QLora](./md/03.FineTuning/FineTuning_Qlora.md) - - [Тонкая настройка Phi-3 с использованием Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Тонкая настройка Phi-3 с использованием Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) -- [Тонкая настройка с Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Тонкая настройка против RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [Тонкая настройка: сделайте Phi-3 экспертом в индустрии](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [Тонкая настройка Phi-3 с AI Toolkit для VS Code](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Тонкая настройка Phi-3 с помощью Azure Machine Learning Service](./md/03.FineTuning/Introduce_AzureML.md) +- [Тонкая настройка Phi-3 с помощью Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [Тонкая настройка Phi-3 с QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [Тонкая настройка Phi-3 с Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Тонкая настройка Phi-3 с Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Тонкая настройка с Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - [Практическая лаборатория по тонкой настройке с Microsoft Olive](./md/03.FineTuning/olive-lab/readme.md) - - [Тонкая настройка Phi-3-vision с использованием Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [Тонкая настройка Phi-3 с помощью Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) + - [Тонкая настройка Phi-3-vision с Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Тонкая настройка Phi-3 с Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) - [Тонкая настройка Phi-3-vision (официальная поддержка)](./md/03.FineTuning/FineTuning_Vision.md) - [Тонкая настройка Phi-3 с Kaito AKS, Azure Containers (официальная поддержка)](./md/03.FineTuning/FineTuning_Kaito.md) - [Тонкая настройка Phi-3 и 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) - Практическая лаборатория - - [Исследование передовых моделей: LLM, SLM, локальная разработка и многое другое](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [Изучение передовых моделей: LLM, SLM, локальная разработка и многое другое](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - [Раскрытие потенциала NLP: тонкая настройка с Microsoft Olive](https://github.com/azure/Ignite_FineTuning_workshop) -- Научные исследования и публикации - - [Учебники — всё, что вам нужно II: технический отчет phi-1.5](https://arxiv.org/abs/2309.05463) +- Научные статьи и публикации + - [Textbooks Are All You Need II: технический отчет phi-1.5](https://arxiv.org/abs/2309.05463) - [Технический отчет Phi-3: мощная языковая модель, работающая локально на вашем телефоне](https://arxiv.org/abs/2404.14219) - [Технический отчет Phi-4](https://arxiv.org/abs/2412.08905) - - [Технический отчет Phi-4-Mini: компактные, но мощные мультимодальные языковые модели с использованием Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) - - [Оптимизация малых языковых моделей для вызова функций в автомобиле](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) Тонкая настройка PHI-3 для ответа на вопросы с множественным выбором: методология, результаты и вызовы](https://arxiv.org/abs/2501.01588) + - [Технический отчет Phi-4-Mini: компактные, но мощные мультимодальные языковые модели с помощью Mixture-of-LoRAs](https://arxiv.org/abs/2503.01743) + - [Оптимизация небольших языковых моделей для вызова функций в автомобиле](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) Тонкая настройка PHI-3 для ответов на вопросы с несколькими вариантами: методология, результаты и вызовы](https://arxiv.org/abs/2501.01588) + - [Технический отчет Phi-4-reasoning](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Технический отчет Phi-4-mini-reasoning](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) ## Использование моделей Phi ### Phi на Azure AI Foundry -Вы можете узнать, как использовать Microsoft Phi и создавать комплексные решения для различных аппаратных устройств. Чтобы попробовать Phi самостоятельно, начните с тестирования моделей и настройки Phi для ваших сценариев с помощью [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai). Подробнее можно узнать в разделе [Начало работы с Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). +Вы можете узнать, как использовать Microsoft Phi и создавать комплексные решения для разных аппаратных устройств. Чтобы попробовать Phi самостоятельно, начните с экспериментов с моделями и настройки Phi под ваши задачи с помощью [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai). Подробнее можно узнать в разделе Начало работы с [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md). -**Площадка** -У каждой модели есть специальная площадка для тестирования [Azure AI Playground](https://aka.ms/try-phi3). +**Площадка для тестирования** +Для каждой модели предусмотрена отдельная площадка для тестирования — [Azure AI Playground](https://aka.ms/try-phi3). ### Phi на GitHub Models -Вы можете узнать, как использовать Microsoft Phi и создавать комплексные решения для различных аппаратных устройств. Чтобы попробовать Phi самостоятельно, начните с тестирования моделей и настройки Phi для ваших сценариев с помощью [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Подробнее можно узнать в разделе [Начало работы с GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md). +Вы можете узнать, как использовать Microsoft Phi и создавать комплексные решения для разных аппаратных устройств. Чтобы попробовать Phi самостоятельно, начните с экспериментов с моделью и настройки Phi под ваши задачи с помощью [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo). Подробнее можно узнать в разделе Начало работы с [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md). -**Площадка** -У каждой модели есть [специальная площадка для тестирования](/md/02.QuickStart/GitHubModel_QuickStart.md). +**Площадка для тестирования** +Для каждой модели предусмотрена отдельная [площадка для тестирования модели](/md/02.QuickStart/GitHubModel_QuickStart.md). ### Phi на Hugging Face Модель также доступна на [Hugging Face](https://huggingface.co/microsoft). -**Площадка** -[Площадка Hugging Chat](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct). +**Площадка для тестирования** +[Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## Ответственный подход к ИИ +## Ответственный ИИ -Microsoft стремится помочь клиентам использовать наши продукты ИИ ответственно, делиться опытом и строить доверительные партнерские отношения с помощью таких инструментов, как заметки о прозрачности и оценки воздействия. Многие из этих ресурсов доступны по адресу [https://aka.ms/RAI](https://aka.ms/RAI). Подход Microsoft к ответственному ИИ основан на наших принципах справедливости, надежности и безопасности, конфиденциальности и защиты, инклюзивности, прозрачности и подотчетности. +Microsoft стремится помогать клиентам ответственно использовать наши AI-продукты, делиться опытом и строить доверительные партнерства с помощью инструментов, таких как Transparency Notes и Impact Assessments. Многие из этих ресурсов доступны по адресу [https://aka.ms/RAI](https://aka.ms/RAI). +Подход Microsoft к ответственному ИИ основан на принципах справедливости, надежности и безопасности, конфиденциальности и защите данных, инклюзивности, прозрачности и подотчетности. +Крупномасштабные модели обработки естественного языка, изображений и речи — такие, как используемые в этом примере — могут иногда вести себя несправедливо, ненадёжно или оскорбительно, что может привести к негативным последствиям. Пожалуйста, ознакомьтесь с [заметкой о прозрачности сервиса Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text), чтобы узнать о рисках и ограничениях. -Крупномасштабные модели естественного языка, изображения и речи, такие как те, что используются в этом примере, могут вести себя несправедливо, ненадежно или оскорбительно, что может привести к негативным последствиям. Ознакомьтесь с [заметкой о прозрачности службы Azure OpenAI](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text), чтобы узнать о рисках и ограничениях. +Рекомендуемый способ снижения этих рисков — включить в архитектуру систему безопасности, которая способна обнаруживать и предотвращать вредоносное поведение. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) предоставляет независимый уровень защиты, позволяющий выявлять вредоносный контент, созданный пользователями или ИИ, в приложениях и сервисах. Azure AI Content Safety включает API для работы с текстом и изображениями, которые помогают обнаруживать вредоносные материалы. В рамках Azure AI Foundry сервис Content Safety позволяет просматривать, исследовать и тестировать пример кода для обнаружения вредоносного контента в различных форматах. Следующая [документация для быстрого старта](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) поможет вам научиться делать запросы к сервису. -Рекомендуемый подход к снижению этих рисков — включить в архитектуру систему безопасности, которая может обнаруживать и предотвращать вредоносное поведение. [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) предоставляет независимый уровень защиты, способный обнаруживать вредоносный контент, созданный пользователями и ИИ, в приложениях и сервисах. Azure AI Content Safety включает API для текста и изображений, которые позволяют выявлять вредоносные материалы. В рамках Azure AI Foundry служба Content Safety позволяет просматривать, исследовать и тестировать образцы кода для обнаружения вредоносного контента в различных модальностях. Следующая [документация по быстрому старту](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) поможет вам сделать запросы к сервису. +Ещё один важный аспект — общая производительность приложения. В приложениях с несколькими модальностями и моделями под производительностью понимается то, что система работает так, как ожидаете вы и ваши пользователи, включая отсутствие генерации вредоносного контента. Важно оценивать производительность всего приложения с помощью [оценщиков производительности, качества, риска и безопасности](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). Также у вас есть возможность создавать и использовать [пользовательские оценщики](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Еще один аспект, который следует учитывать, — это общая производительность приложения. В мультимодальных и многомодельных приложениях производительность означает, что система работает так, как ожидают вы и ваши пользователи, включая предотвращение генерации вредоносных результатов. Важно оценить производительность вашего приложения в целом, используя [оценочные метрики производительности, качества, рисков и безопасности](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in). Также вы можете создавать и использовать [пользовательские оценочные метрики](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators). -Вы можете протестировать ваше приложение искусственного интеллекта в вашей среде разработки, используя [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). На основе тестового набора данных или целевой задачи, генерации вашего приложения для генеративного ИИ количественно оцениваются с помощью встроенных или пользовательских оценочных инструментов на ваш выбор. Чтобы начать работу с Azure AI Evaluation SDK для оценки вашей системы, вы можете следовать [руководству по быстрому старту](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). После выполнения оценочного запуска вы можете [визуализировать результаты в Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). +Вы можете оценить своё AI-приложение в среде разработки с помощью [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html). При наличии тестового набора данных или целевого результата генерации вашего AI-приложения измеряются количественные показатели с использованием встроенных или пользовательских оценщиков на ваш выбор. Чтобы начать работу с Azure AI Evaluation SDK для оценки вашей системы, следуйте [руководству для быстрого старта](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk). После выполнения оценки вы можете [визуализировать результаты в Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results). -## Торговые марки +## Товарные знаки -Этот проект может содержать торговые марки или логотипы для проектов, продуктов или услуг. Разрешенное использование торговых марок или логотипов Microsoft должно соответствовать и следовать [Руководству по торговым маркам и брендам Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). Использование торговых марок или логотипов Microsoft в модифицированных версиях этого проекта не должно вызывать путаницу или подразумевать спонсорство со стороны Microsoft. Любое использование торговых марок или логотипов третьих сторон должно соответствовать политике этих третьих сторон. +Этот проект может содержать товарные знаки или логотипы проектов, продуктов или сервисов. Авторизованное использование товарных знаков или логотипов Microsoft регулируется и должно соответствовать [Руководству по товарным знакам и брендам Microsoft](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general). Использование товарных знаков или логотипов Microsoft в изменённых версиях этого проекта не должно вводить в заблуждение или подразумевать спонсорство Microsoft. Любое использование товарных знаков или логотипов третьих сторон подчиняется правилам этих третьих сторон. **Отказ от ответственности**: -Этот документ был переведен с использованием службы автоматического перевода [Co-op Translator](https://github.com/Azure/co-op-translator). Несмотря на наши усилия по обеспечению точности, автоматические переводы могут содержать ошибки или неточности. Оригинальный документ на его родном языке следует считать авторитетным источником. Для получения важной информации рекомендуется профессиональный перевод человеком. Мы не несем ответственности за любые недоразумения или неправильные интерпретации, возникшие в результате использования данного перевода. \ No newline at end of file +Этот документ был переведен с помощью сервиса автоматического перевода [Co-op Translator](https://github.com/Azure/co-op-translator). Несмотря на наши усилия по обеспечению точности, просим учитывать, что автоматические переводы могут содержать ошибки или неточности. Оригинальный документ на его исходном языке следует считать авторитетным источником. Для получения критически важной информации рекомендуется обращаться к профессиональному человеческому переводу. Мы не несем ответственности за любые недоразумения или неправильные толкования, возникшие в результате использования данного перевода. \ No newline at end of file diff --git a/translations/tw/README.md b/translations/tw/README.md index 5c18dd00..95f14238 100644 --- a/translations/tw/README.md +++ b/translations/tw/README.md @@ -1,43 +1,60 @@ -# Phi Cookbook:使用 Microsoft Phi 模型的實作範例 +# Phi Cookbook: 使用 Microsoft Phi 模型的實作範例 -Phi 是 Microsoft 開發的一系列開源 AI 模型。 +[![在 GitHub Codespaces 開啟並使用範例](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![在 Dev Containers 開啟](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi 是目前最強大且具成本效益的小型語言模型(SLM),在多語言、推理、文本/聊天生成、程式碼、圖像、音頻以及其他場景中均有卓越表現。 +[![GitHub 貢獻者](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub 問題](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub 拉取請求](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![歡迎 PRs](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -您可以將 Phi 部署到雲端或邊緣設備,並且可以利用有限的計算資源輕鬆構建生成式 AI 應用程式。 +[![GitHub 觀察者](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub 分支](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub 星標](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) + + +[![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi 是微軟開發的一系列開源 AI 模型。 + +Phi 目前是最強大且具成本效益的小型語言模型(SLM),在多語言、推理、文字/聊天生成、程式碼、影像、音訊及其他場景中都有優異的基準表現。 + +你可以將 Phi 部署到雲端或邊緣裝置,並且能輕鬆用有限的運算資源打造生成式 AI 應用。 按照以下步驟開始使用這些資源: -1. **Fork 此儲存庫**:點擊 [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **Clone 此儲存庫**: `git clone https://github.com/microsoft/PhiCookBook.git` +1. **Fork 這個儲存庫**:點擊 [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **Clone 這個儲存庫**: `git clone https://github.com/microsoft/PhiCookBook.git` 3. [**加入 Microsoft AI Discord 社群,與專家及其他開發者交流**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -![封面](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.tw.png) +![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.tw.png) + +## 🌐 多語言支援 +[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文 (法爾西語)](../fa/README.md) | [烏爾都文](../ur/README.md) | [中文 (簡體)](../zh/README.md) | [中文 (繁體,澳門)](../mo/README.md) | [中文 (繁體,香港)](../hk/README.md) | [中文 (繁體,台灣)](./README.md) | [日文](../ja/README.md) | [韓文](../ko/README.md) | [印地文](../hi/README.md) [孟加拉文](../bn/README.md) | [馬拉地文](../mr/README.md) | [尼泊爾文](../ne/README.md) | [旁遮普文 (古魯穆奇)](../pa/README.md) | [葡萄牙文 (葡萄牙)](../pt/README.md) | [葡萄牙文 (巴西)](../br/README.md) | [義大利文](../it/README.md) | [波蘭文](../pl/README.md) | [土耳其文](../tr/README.md) | [希臘文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麥文](../da/README.md) | [挪威文](../no/README.md) | [芬蘭文](../fi/README.md) | [荷蘭文](../nl/README.md) | [希伯來文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [馬來文](../ms/README.md) | [他加祿文 (菲律賓語)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [羅馬尼亞文](../ro/README.md) | [保加利亞文](../bg/README.md) | [塞爾維亞文 (西里爾字母)](../sr/README.md) | [克羅埃西亞文](../hr/README.md) | [斯洛維尼亞文](../sl/README.md)請從左到右書寫輸出。 -## 🌐 多語言支持 -[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文 (法爾西文)](../fa/README.md) | [烏爾都文](../ur/README.md) | [中文 (簡體)](../zh/README.md) | [中文 (繁體,澳門)](../mo/README.md) | [中文 (繁體,香港)](../hk/README.md) | [中文 (繁體,台灣)](./README.md) | [日文](../ja/README.md) | [韓文](../ko/README.md) | [印地文](../hi/README.md) [孟加拉文](../bn/README.md) | [馬拉地文](../mr/README.md) | [尼泊爾文](../ne/README.md) | [旁遮普文 (古爾穆奇文)](../pa/README.md) | [葡萄牙文 (葡萄牙)](../pt/README.md) | [葡萄牙文 (巴西)](../br/README.md) | [義大利文](../it/README.md) | [波蘭文](../pl/README.md) | [土耳其文](../tr/README.md) | [希臘文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麥文](../da/README.md) | [挪威文](../no/README.md) | [芬蘭文](../fi/README.md) | [荷蘭文](../nl/README.md) | [希伯來文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [馬來文](../ms/README.md) | [他加祿文 (菲律賓文)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [羅馬尼亞文](../ro/README.md) | [保加利亞文](../bg/README.md) | [塞爾維亞文 (西里爾文)](../sr/README.md) | [克羅埃西亞文](../hr/README.md) | [斯洛維尼亞文](../sl/README.md) +[法文](../fr/README.md) | [西班牙文](../es/README.md) | [德文](../de/README.md) | [俄文](../ru/README.md) | [阿拉伯文](../ar/README.md) | [波斯文 (法爾西語)](../fa/README.md) | [烏爾都文](../ur/README.md) | [中文 (簡體)](../zh/README.md) | [中文 (繁體,澳門)](../mo/README.md) | [中文 (繁體,香港)](../hk/README.md) | [中文 (繁體,台灣)](./README.md) | [日文](../ja/README.md) | [韓文](../ko/README.md) | [印地文](../hi/README.md) [孟加拉文](../bn/README.md) | [馬拉地文](../mr/README.md) | [尼泊爾文](../ne/README.md) | [旁遮普文 (古魯穆奇)](../pa/README.md) | [葡萄牙文 (葡萄牙)](../pt/README.md) | [葡萄牙文 (巴西)](../br/README.md) | [義大利文](../it/README.md) | [波蘭文](../pl/README.md) | [土耳其文](../tr/README.md) | [希臘文](../el/README.md) | [泰文](../th/README.md) | [瑞典文](../sv/README.md) | [丹麥文](../da/README.md) | [挪威文](../no/README.md) | [芬蘭文](../fi/README.md) | [荷蘭文](../nl/README.md) | [希伯來文](../he/README.md) | [越南文](../vi/README.md) | [印尼文](../id/README.md) | [馬來文](../ms/README.md) | [他加祿文 (菲律賓語)](../tl/README.md) | [斯瓦希里文](../sw/README.md) | [匈牙利文](../hu/README.md) | [捷克文](../cs/README.md) | [斯洛伐克文](../sk/README.md) | [羅馬尼亞文](../ro/README.md) | [保加利亞文](../bg/README.md) | [塞爾維亞文 (西里爾字母)](../sr/README.md) | [克羅埃西亞文](../hr/README.md) | [斯洛維尼亞文](../sl/README.md) ## 目錄 -- 簡介 +- 介紹 - [歡迎加入 Phi 家族](./md/01.Introduction/01/01.PhiFamily.md) - - [設定您的環境](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [了解核心技術](./md/01.Introduction/01/01.Understandingtech.md) - - [Phi 模型的 AI 安全性](./md/01.Introduction/01/01.AISafety.md) + - [設定你的環境](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [理解關鍵技術](./md/01.Introduction/01/01.Understandingtech.md) + - [Phi 模型的 AI 安全](./md/01.Introduction/01/01.AISafety.md) - [Phi 硬體支援](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Phi 模型及各平台的可用性](./md/01.Introduction/01/01.Edgeandcloud.md) - - [使用 Guidance-ai 和 Phi](./md/01.Introduction/01/01.Guidance.md) + - [Phi 模型與各平台可用性](./md/01.Introduction/01/01.Edgeandcloud.md) + - [使用 Guidance-ai 與 Phi](./md/01.Introduction/01/01.Guidance.md) - [GitHub Marketplace 模型](https://github.com/marketplace/models) - [Azure AI 模型目錄](https://ai.azure.com) -- 在不同環境中推理 Phi +- 在不同環境中推論 Phi - [Hugging face](./md/01.Introduction/02/01.HF.md) - [GitHub 模型](./md/01.Introduction/02/02.GitHubModel.md) - [Azure AI Foundry 模型目錄](./md/01.Introduction/02/03.AzureAIFoundry.md) @@ -45,174 +62,179 @@ Phi 是目前最強大且具成本效益的小型語言模型(SLM),在多 - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) -- Phi 家族的推理 - - [在 iOS 上推理 Phi](./md/01.Introduction/03/iOS_Inference.md) - - [在 Android 上推理 Phi](./md/01.Introduction/03/Android_Inference.md) - - [在 Jetson 上推理 Phi](./md/01.Introduction/03/Jetson_Inference.md) - - [在 AI PC 上推理 Phi](./md/01.Introduction/03/AIPC_Inference.md) - - [使用 Apple MLX 框架推理 Phi](./md/01.Introduction/03/MLX_Inference.md) - - [在本地伺服器上推理 Phi](./md/01.Introduction/03/Local_Server_Inference.md) - - [使用 AI Toolkit 在遠端伺服器推理 Phi](./md/01.Introduction/03/Remote_Interence.md) - - [使用 Rust 推理 Phi](./md/01.Introduction/03/Rust_Inference.md) - - [在本地推理 Phi--Vision](./md/01.Introduction/03/Vision_Inference.md) - - [使用 Kaito AKS 和 Azure Containers(官方支援)推理 Phi](./md/01.Introduction/03/Kaito_Inference.md) - -- [Phi 家族的量化](./md/01.Introduction/04/QuantifyingPhi.md) +- Phi 家族推論 + - [在 iOS 上推論 Phi](./md/01.Introduction/03/iOS_Inference.md) + - [在 Android 上推論 Phi](./md/01.Introduction/03/Android_Inference.md) + - [在 Jetson 上推論 Phi](./md/01.Introduction/03/Jetson_Inference.md) + - [在 AI PC 上推論 Phi](./md/01.Introduction/03/AIPC_Inference.md) + - [使用 Apple MLX Framework 推論 Phi](./md/01.Introduction/03/MLX_Inference.md) + - [在本地伺服器推論 Phi](./md/01.Introduction/03/Local_Server_Inference.md) + - [使用 AI Toolkit 在遠端伺服器推論 Phi](./md/01.Introduction/03/Remote_Interence.md) + - [使用 Rust 推論 Phi](./md/01.Introduction/03/Rust_Inference.md) + - [本地端 Phi--Vision 推論](./md/01.Introduction/03/Vision_Inference.md) + - [使用 Kaito AKS、Azure Containers(官方支援)推論 Phi](./md/01.Introduction/03/Kaito_Inference.md) +- [Phi 家族量化](./md/01.Introduction/04/QuantifyingPhi.md) - [使用 llama.cpp 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [使用 Onnxruntime 的生成式 AI 擴展量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [使用 onnxruntime 的生成式 AI 擴充功能量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - [使用 Intel OpenVINO 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [使用 Apple MLX 框架量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + - [使用 Apple MLX Framework 量化 Phi-3.5 / 4](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) -- 評估 Phi -- [負責任的 AI](./md/01.Introduction/05/ResponsibleAI.md) - - [Azure AI Foundry 評估工具](./md/01.Introduction/05/AIFoundry.md) +- Phi 評估 +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry 用於評估](./md/01.Introduction/05/AIFoundry.md) - [使用 Promptflow 進行評估](./md/01.Introduction/05/Promptflow.md) - 使用 Azure AI Search 的 RAG - - [如何結合 Phi-4-mini 和 Phi-4-multimodal (RAG) 與 Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + - [如何搭配 Azure AI Search 使用 Phi-4-mini 和 Phi-4-multimodal(RAG)](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - Phi 應用開發範例 - - 文本與聊天應用 + - 文字與聊天應用 - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-mini ONNX 模型進行聊天](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [使用 Phi-4 本地 ONNX 模型進行聊天 (.NET)](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [結合 Phi-4 ONNX 和 Semantic Kernel 的 .NET 聊天控制台應用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [📓] [與 Phi-4-mini ONNX 模型聊天](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [使用本地 Phi-4 ONNX 模型的聊天 .NET 應用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [使用 Semantic Kernel 的 Phi-4 ONNX 聊天 .NET 控制台應用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - Phi-3 / 3.5 範例 - - [使用 Phi3、ONNX Runtime Web 和 WebGPU 的本地瀏覽器聊天機器人](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [使用 Phi3、ONNX Runtime Web 和 WebGPU 在瀏覽器中建立本地聊天機器人](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - [OpenVino 聊天](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [多模型交互:Phi-3-mini 與 OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - 構建封裝並使用 Phi-3 與 MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [模型優化 - 如何使用 Olive 優化 Phi-3-min 模型以適配 ONNX Runtime Web](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [結合 Phi-3 mini-4k-instruct-onnx 的 WinUI3 應用](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 多模型 AI 驅動的筆記應用範例](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [使用 Prompt flow 微調並整合自定義 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [在 Azure AI Foundry 中使用 Prompt flow 微調並整合自定義 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [基於 Microsoft 負責任 AI 原則,評估 Azure AI Foundry 中的微調 Phi-3 / Phi-3.5 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct 語言預測範例(中/英文)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [多模型 - 互動式 Phi-3-mini 與 OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - 建立包裝器並使用 Phi-3 搭配 MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [模型優化 - 如何用 Olive 為 ONNX Runtime Web 優化 Phi-3-mini 模型](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [使用 Phi-3 mini-4k-instruct-onnx 的 WinUI3 應用](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + - [WinUI3 多模型 AI 助力筆記應用範例](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [使用 Prompt flow 微調並整合自訂 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [在 Azure AI Foundry 中使用 Prompt flow 微調並整合自訂 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [在 Azure AI Foundry 評估微調後的 Phi-3 / Phi-3.5 模型,聚焦於微軟的 Responsible AI 原則](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct 語言預測範例(中/英)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - [Phi-3.5-Instruct WebGPU RAG 聊天機器人](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [使用 Windows GPU 與 Phi-3.5-Instruct ONNX 創建 Prompt flow 解決方案](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [使用 Microsoft Phi-3.5 tflite 創建 Android 應用](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [使用 Microsoft.ML.OnnxRuntime 的本地 ONNX Phi-3 模型進行 Q&A .NET 範例](../../md/04.HOL/dotnet/src/LabsPhi301) - - [結合 Semantic Kernel 和 Phi-3 的控制台聊天 .NET 應用](../../md/04.HOL/dotnet/src/LabsPhi302) + - [使用 Windows GPU 建立 Phi-3.5-Instruct ONNX 的 Prompt flow 解決方案](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [使用 Microsoft Phi-3.5 tflite 建立 Android 應用](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [使用本地 ONNX Phi-3 模型搭配 Microsoft.ML.OnnxRuntime 的 Q&A .NET 範例](../../md/04.HOL/dotnet/src/LabsPhi301) + - [使用 Semantic Kernel 與 Phi-3 的 .NET 控制台聊天應用](../../md/04.HOL/dotnet/src/LabsPhi302) - - 基於 Azure AI Inference SDK 的代碼範例 + - 基於 Azure AI 推論 SDK 的程式碼範例 - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-multimodal 生成項目代碼](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - [📓] [使用 Phi-4-multimodal 產生專案程式碼](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - Phi-3 / 3.5 範例 - - [構建您自己的 Visual Studio Code GitHub Copilot 聊天功能,結合 Microsoft Phi-3 系列](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [使用 Phi-3.5 與 GitHub 模型創建您的 Visual Studio Code 聊天代理](./md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [使用 Microsoft Phi-3 家族打造自己的 Visual Studio Code GitHub Copilot Chat](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [使用 GitHub 模型打造自己的 Visual Studio Code Chat Copilot Agent(Phi-3.5)](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - 高級推理範例 + - 進階推理範例 - Phi-4 範例 🆕 - - [📓] [Phi-4-mini 推理範例](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - 演示 - - [在 Hugging Face Spaces 上托管的 Phi-4-mini 演示](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [在 Hugging Face Spaces 上托管的 Phi-4-multimodal 演示](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - [📓] [Phi-4-mini 推理或 Phi-4 推理範例](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [使用 Microsoft Olive 微調 Phi-4-mini 推理模型](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [使用 Apple MLX 微調 Phi-4-mini 推理模型](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [使用 GitHub 模型的 Phi-4-mini 推理](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini 結合 Azure AI Foundry 模型推理](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - 範例展示 + - [Phi-4-mini 範例展示,託管於 Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-multimodal 範例展示,託管於 Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - 視覺範例 - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-multimodal 讀取圖像並生成代碼](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - [📓] [使用 Phi-4-multimodal 讀取圖片並生成程式碼](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - Phi-3 / 3.5 範例 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [📓][Phi-3-vision 圖像文字轉文字](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - 視覺語言助手 - 使用 Phi3-Vision 和 OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [📓][Phi-3-vision CLIP 嵌入](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [DEMO: Phi-3 回收](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3-vision - 視覺語言助理 - 結合 Phi3-Vision 與 OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - [📓][Phi-3.5 Vision 多幀或多圖像範例](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - [Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) - - [基於選單的 Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + - [菜單式 Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) - - 音頻範例 + - 音訊範例 - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-multimodal 提取音頻文字稿](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Phi-4-multimodal 音頻範例](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [使用 Phi-4-multimodal 擷取音訊轉錄內容](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Phi-4-multimodal 音訊範例](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - [📓] [Phi-4-multimodal 語音翻譯範例](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET 主控台應用,使用 Phi-4-multimodal 分析音頻文件並生成文字稿](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - [.NET 主控台應用程式,使用 Phi-4-multimodal 音訊分析音訊檔並生成轉錄文字](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - MOE 範例 - Phi-3 / 3.5 範例 - - [📓] [Phi-3.5 專家模型組合 (MoEs) 社交媒體範例](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [使用 NVIDIA NIM Phi-3 MOE、Azure AI Search 和 LlamaIndex 構建檢索增強生成 (RAG) 流程](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - 函數調用範例 + - [📓] [Phi-3.5 混合專家模型 (MoEs) 社群媒體範例](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [使用 NVIDIA NIM Phi-3 MOE、Azure AI Search 與 LlamaIndex 建立檢索增強生成 (RAG) 流程](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - 函式呼叫範例 - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-mini 進行函數調用](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [使用函數調用創建多代理,搭配 Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [搭配 Ollama 使用函數調用](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - [📓] [在 Phi-4-mini 中使用函式呼叫](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [使用函式呼叫建立多代理人,搭配 Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [在 Ollama 中使用函式呼叫](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - 多模態混合範例 - Phi-4 範例 🆕 - - [📓] [使用 Phi-4-multimodal 作為科技記者](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET 主控台應用,使用 Phi-4-multimodal 分析圖像](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + - [📓] [使用 Phi-4-multimodal 擔任科技記者](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET 主控台應用程式,使用 Phi-4-multimodal 分析圖片](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - Phi 微調範例 - - [微調場景](./md/03.FineTuning/FineTuning_Scenarios.md) - - [微調與 RAG 的比較](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [微調讓 Phi-3 成為行業專家](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [使用 VS Code 的 AI 工具包微調 Phi-3](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [使用 Azure 機器學習服務微調 Phi-3](./md/03.FineTuning/Introduce_AzureML.md) - - [使用 Lora 微調 Phi-3](./md/03.FineTuning/FineTuning_Lora.md) - - [使用 QLora 微調 Phi-3](./md/03.FineTuning/FineTuning_Qlora.md) - - [使用 Azure AI Foundry 微調 Phi-3](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [使用 Azure ML CLI/SDK 微調 Phi-3](./md/03.FineTuning/FineTuning_MLSDK.md) -- [使用 Microsoft Olive 進行微調](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Microsoft Olive 微調實作實驗室](./md/03.FineTuning/olive-lab/readme.md) - - [使用 Weights and Bias 微調 Phi-3-vision](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [使用 Apple MLX 框架微調 Phi-3](./md/03.FineTuning/FineTuning_MLX.md) - - [微調 Phi-3-vision (官方支援)](./md/03.FineTuning/FineTuning_Vision.md) - - [使用 Kaito AKS 和 Azure Containers 微調 Phi-3 (官方支援)](./md/03.FineTuning/FineTuning_Kaito.md) - - [微調 Phi-3 和 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) + - [微調情境](./md/03.FineTuning/FineTuning_Scenarios.md) + - [微調與 RAG 比較](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [微調讓 Phi-3 成為產業專家](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [使用 AI Toolkit for VS Code 微調 Phi-3](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [使用 Azure Machine Learning Service 微調 Phi-3](./md/03.FineTuning/Introduce_AzureML.md) +- [用 Lora 微調 Phi-3](./md/03.FineTuning/FineTuning_Lora.md) + - [用 QLora 微調 Phi-3](./md/03.FineTuning/FineTuning_Qlora.md) + - [用 Azure AI Foundry 微調 Phi-3](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [用 Azure ML CLI/SDK 微調 Phi-3](./md/03.FineTuning/FineTuning_MLSDK.md) + - [用 Microsoft Olive 微調](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Microsoft Olive 實作實驗室微調](./md/03.FineTuning/olive-lab/readme.md) + - [用 Weights and Bias 微調 Phi-3-vision](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [用 Apple MLX Framework 微調 Phi-3](./md/03.FineTuning/FineTuning_MLX.md) + - [Phi-3-vision 微調(官方支援)](./md/03.FineTuning/FineTuning_Vision.md) + - [用 Kaito AKS、Azure Containers 微調 Phi-3(官方支援)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Phi-3 與 3.5 Vision 微調](https://github.com/2U1/Phi3-Vision-Finetune) -- 實作實驗室 - - [探索前沿模型:LLMs、SLMs、本地開發等](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [解鎖 NLP 潛力:使用 Microsoft Olive 進行微調](https://github.com/azure/Ignite_FineTuning_workshop) +- 實作實驗室 + - [探索尖端模型:LLMs、SLMs、本地開發等](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [發掘 NLP 潛力:用 Microsoft Olive 微調](https://github.com/azure/Ignite_FineTuning_workshop) -- 學術研究論文與出版物 - - [教科書是您唯一需要的 II:phi-1.5 技術報告](https://arxiv.org/abs/2309.05463) - - [Phi-3 技術報告:在您的手機上本地運行的高性能語言模型](https://arxiv.org/abs/2404.14219) - - [Phi-4 技術報告](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini 技術報告:通過 LoRAs 混合方法實現緊湊但強大的多模態語言模型](https://arxiv.org/abs/2503.01743) - - [優化小型語言模型以進行車內功能調用](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) 微調 PHI-3 以回答多選題:方法論、結果及挑戰](https://arxiv.org/abs/2501.01588) +- 學術研究論文與出版品 + - [Textbooks Are All You Need II: phi-1.5 技術報告](https://arxiv.org/abs/2309.05463) + - [Phi-3 技術報告:在你手機上運行的高效能語言模型](https://arxiv.org/abs/2404.14219) + - [Phi-4 技術報告](https://arxiv.org/abs/2412.08905) + - [Phi-4-Mini 技術報告:透過 Mixture-of-LoRAs 建立小巧卻強大的多模態語言模型](https://arxiv.org/abs/2503.01743) + - [優化車載小型語言模型的函式呼叫功能](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) 用於多選題問答的 PHI-3 微調:方法論、結果與挑戰](https://arxiv.org/abs/2501.01588) + - [Phi-4 推理技術報告](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini 推理技術報告](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) -## 使用 Phi 模型 +## 使用 Phi 模型 -### Phi 在 Azure AI Foundry 上 +### 在 Azure AI Foundry 使用 Phi -您可以了解如何使用 Microsoft Phi,並在不同的硬件設備上構建端到端解決方案。若想親身體驗 Phi,請從操作模型並根據您的場景自訂 Phi 開始,使用 [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) 開始探索,並了解更多資訊於 [Azure AI Foundry 快速入門](/md/02.QuickStart/AzureAIFoundry_QuickStart.md)。 +你可以學習如何使用 Microsoft Phi,並在不同硬體設備上打造端對端解決方案。想親自體驗 Phi,可以先玩玩模型,並利用 [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) 根據你的場景自訂 Phi,更多資訊請參考入門指南 [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) -**Playground** -每個模型都有專屬的 Playground 可供測試模型 [Azure AI Playground](https://aka.ms/try-phi3)。 +**遊樂場** +每個模型都有專屬的遊樂場可以測試模型 [Azure AI Playground](https://aka.ms/try-phi3)。 -### Phi 在 GitHub Models 上 +### 在 GitHub Models 使用 Phi -您可以了解如何使用 Microsoft Phi,並在不同的硬件設備上構建端到端解決方案。若想親身體驗 Phi,請從操作模型並根據您的場景自訂 Phi 開始,使用 [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) 開始探索,並了解更多資訊於 [GitHub Model Catalog 快速入門](/md/02.QuickStart/GitHubModel_QuickStart.md)。 +你可以學習如何使用 Microsoft Phi,並在不同硬體設備上打造端對端解決方案。想親自體驗 Phi,可以先玩玩模型,並利用 [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) 根據你的場景自訂 Phi,更多資訊請參考入門指南 [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) -**Playground** -每個模型都有專屬的 [Playground 可供測試模型](/md/02.QuickStart/GitHubModel_QuickStart.md)。 +**遊樂場** +每個模型都有專屬的[遊樂場可以測試模型](/md/02.QuickStart/GitHubModel_QuickStart.md)。 -### Phi 在 Hugging Face 上 +### 在 Hugging Face 使用 Phi -您也可以在 [Hugging Face](https://huggingface.co/microsoft) 上找到模型。 +你也可以在 [Hugging Face](https://huggingface.co/microsoft) 找到這些模型 -**Playground** -[Hugging Chat Playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct)。 +**遊樂場** +[Hugging Chat 遊樂場](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## 負責任的 AI +## 負責任的 AI -Microsoft 致力於幫助客戶負責任地使用 AI 產品,分享我們的經驗,並通過透明度說明和影響評估等工具建立基於信任的合作關係。許多資源可在 [https://aka.ms/RAI](https://aka.ms/RAI) 找到。 -Microsoft 的負責任 AI 方法基於我們的 AI 原則,包括公平性、可靠性與安全性、隱私與安全性、包容性、透明度和問責性。 +Microsoft 致力於協助客戶負責任地使用我們的 AI 產品,分享我們的經驗,並透過透明度說明與影響評估等工具建立信任合作關係。許多相關資源可在 [https://aka.ms/RAI](https://aka.ms/RAI) 找到。 +Microsoft 的負責任 AI 方針建立在公平性、可靠性與安全性、隱私與安全、包容性、透明度以及問責制等 AI 原則上。 +大型自然語言、影像和語音模型——就像這個範例中使用的模型——可能會以不公平、不可靠或冒犯的方式表現,進而造成傷害。請參考 [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) 以了解相關風險與限制。 -大型自然語言、圖像和語音模型(例如本示例中使用的模型)可能會以不公平、不可靠或冒犯的方式行為,從而造成傷害。請參閱 [Azure OpenAI 服務透明度說明](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text),了解相關風險和限制。 +建議的風險緩解方法是在您的架構中包含一個安全系統,能夠偵測並防止有害行為。[Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) 提供獨立的保護層,能在應用程式和服務中偵測使用者產生和 AI 產生的有害內容。Azure AI Content Safety 包含文字和影像 API,讓您能偵測有害素材。在 Azure AI Foundry 中,Content Safety 服務讓您能查看、探索並試用跨不同模態偵測有害內容的範例程式碼。以下的 [quickstart documentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) 將引導您如何向服務發送請求。 -建議的風險緩解方法是在您的架構中包含一個安全系統,該系統可以檢測並防止有害行為。[Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) 提供獨立的保護層,能夠檢測應用程序和服務中的有害用戶生成內容及 AI 生成內容。Azure AI Content Safety 包括文本和圖像 API,可檢測有害材料。在 Azure AI Foundry 中,Content Safety 服務可讓您查看、探索並嘗試檢測不同模態有害內容的示例代碼。以下 [快速入門文檔](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) 指導您如何向服務發送請求。 +另一個需要考慮的面向是整體應用程式的效能。對於多模態和多模型的應用程式,我們認為效能是指系統的表現符合您和使用者的期望,包括不產生有害輸出。評估整體應用程式的效能時,使用 [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) 非常重要。您也可以使用 [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) 來建立和評估。 -另一個需要考慮的方面是整體應用性能。對於多模態和多模型應用程序,我們認為性能意味著系統按您和您的用戶期望執行,包括不生成有害輸出。重要的是使用 [性能與質量及風險與安全性評估工具](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) 評估您的整體應用性能。您還可以使用 [自訂評估工具](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) 創建並進行評估。 -您可以在開發環境中使用 [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) 來評估您的 AI 應用程式。透過測試資料集或目標,您的生成式 AI 應用程式的結果可使用內建評估器或您選擇的自訂評估器進行量化測量。若要開始使用 Azure AI Evaluation SDK 評估您的系統,您可以參考 [快速入門指南](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)。執行評估後,您可以在 [Azure AI Foundry 中可視化結果](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)。 +您可以在開發環境中使用 [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) 評估您的 AI 應用程式。無論是測試資料集或目標,您的生成式 AI 應用程式的產出都會透過內建或自訂的評估器進行量化測量。若要開始使用 azure ai evaluation sdk 評估系統,您可以參考 [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)。執行評估後,您可以在 [Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results) 中視覺化結果。 -## 商標 +## Trademarks -此專案可能包含與專案、產品或服務相關的商標或標誌。使用 Microsoft 商標或標誌需獲授權,並必須遵循 [Microsoft 的商標及品牌指南](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)。在修改版本的專案中使用 Microsoft 商標或標誌時,不得引起混淆或暗示 Microsoft 的贊助。使用第三方商標或標誌需遵循該第三方的政策。 +本專案可能包含專案、產品或服務的商標或標誌。授權使用 Microsoft 商標或標誌需遵守並依據 [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) 規定。 +在本專案修改版本中使用 Microsoft 商標或標誌,不得造成混淆或暗示 Microsoft 贊助。任何第三方商標或標誌的使用,均須遵守該第三方的相關政策。 **免責聲明**: -本文檔使用 AI 翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 進行翻譯。雖然我們努力確保準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。應以原文檔的母語版本作為權威來源。對於關鍵資訊,建議尋求專業人工翻譯。我們對因使用本翻譯而引起的任何誤解或誤釋不承擔責任。 \ No newline at end of file +本文件係使用 AI 翻譯服務 [Co-op Translator](https://github.com/Azure/co-op-translator) 進行翻譯。雖然我們致力於提供準確的翻譯,但請注意,自動翻譯可能包含錯誤或不準確之處。原始文件的母語版本應視為權威來源。對於重要資訊,建議採用專業人工翻譯。我們不對因使用本翻譯而產生的任何誤解或誤譯負責。 \ No newline at end of file diff --git a/translations/ur/README.md b/translations/ur/README.md index dd93e76c..f754c593 100644 --- a/translations/ur/README.md +++ b/translations/ur/README.md @@ -1,220 +1,237 @@ -# Phi کُک بُک: مائیکروسافٹ کے Phi ماڈلز کے ساتھ عملی مثالیں +# Phi Cookbook: Microsoft کے Phi ماڈلز کے ساتھ عملی مثالیں -Phi مائیکروسافٹ کی جانب سے تیار کردہ اوپن سورس AI ماڈلز کی ایک سیریز ہے۔ +[![GitHub Codespaces میں نمونے کھولیں اور استعمال کریں](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![Dev Containers میں کھولیں](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -Phi فی الحال سب سے طاقتور اور لاگت کے لحاظ سے مؤثر چھوٹا زبان ماڈل (SLM) ہے، جو مختلف زبانوں، دلیل، متن/چیٹ جنریشن، کوڈنگ، تصاویر، آڈیو اور دیگر منظرناموں میں بہترین نتائج فراہم کرتا ہے۔ +[![GitHub کے شراکت دار](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub مسائل](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub پل-ریکویسٹ](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![PRs خوش آمدید](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -آپ Phi کو کلاؤڈ یا ایج ڈیوائسز پر تعینات کر سکتے ہیں، اور محدود کمپیوٹنگ طاقت کے ساتھ آسانی سے جنریٹو AI ایپلی کیشنز بنا سکتے ہیں۔ +[![GitHub واچرز](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub فورکس](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub اسٹارز](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) -ان وسائل کو استعمال کرنے کے لیے درج ذیل مراحل پر عمل کریں: -1. **ریپوزٹری کو فورک کریں**: کلک کریں [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -2. **ریپوزٹری کو کلون کریں**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**مائیکروسافٹ AI ڈسکورڈ کمیونٹی میں شامل ہوں اور ماہرین اور دیگر ڈویلپرز سے ملاقات کریں**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +[![Azure AI Community Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) + +Phi مائیکروسافٹ کی طرف سے تیار کردہ ایک اوپن سورس AI ماڈلز کی سیریز ہے۔ + +Phi فی الحال سب سے طاقتور اور کم قیمت چھوٹا زبان ماڈل (SLM) ہے، جس کے پاس متعدد زبانوں، منطق، متن/چیٹ جنریشن، کوڈنگ، تصاویر، آڈیو اور دیگر حالات میں بہت اچھے بینچ مارکس ہیں۔ + +آپ Phi کو کلاؤڈ یا ایج ڈیوائسز پر تعینات کر سکتے ہیں، اور محدود کمپیوٹنگ پاور کے ساتھ آسانی سے جنریٹو AI ایپلیکیشنز بنا سکتے ہیں۔ + +ان وسائل کو استعمال شروع کرنے کے لیے یہ مراحل فالو کریں: +1. **ریپوزیٹری کو فورک کریں**: کلک کریں [![GitHub forks](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +2. **ریپوزیٹری کو کلون کریں**: `git clone https://github.com/microsoft/PhiCookBook.git` +3. [**Microsoft AI Discord کمیونٹی میں شامل ہوں اور ماہرین اور دیگر ڈویلپرز سے ملیں**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![cover](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.ur.png) -## 🌐 متعدد زبانوں کی حمایت -[فرانسیسی](../fr/README.md) | [ہسپانوی](../es/README.md) | [جرمن](../de/README.md) | [روسی](../ru/README.md) | [عربی](../ar/README.md) | [فارسی](../fa/README.md) | [اردو](./README.md) | [چینی (سادہ)](../zh/README.md) | [چینی (روایتی، مکاؤ)](../mo/README.md) | [چینی (روایتی، ہانگ کانگ)](../hk/README.md) | [چینی (روایتی، تائیوان)](../tw/README.md) | [جاپانی](../ja/README.md) | [کوریائی](../ko/README.md) | [ہندی](../hi/README.md) | [بنگالی](../bn/README.md) | [مراٹھی](../mr/README.md) | [نیپالی](../ne/README.md) | [پنجابی (گرمکھی)](../pa/README.md) | [پرتگالی (پرتگال)](../pt/README.md) | [پرتگالی (برازیل)](../br/README.md) | [اطالوی](../it/README.md) | [پولش](../pl/README.md) | [ترکی](../tr/README.md) | [یونانی](../el/README.md) | [تھائی](../th/README.md) | [سویڈش](../sv/README.md) | [ڈینش](../da/README.md) | [نارویجین](../no/README.md) | [فنش](../fi/README.md) | [ڈچ](../nl/README.md) | [عبرانی](../he/README.md) | [ویتنامی](../vi/README.md) | [انڈونیشیائی](../id/README.md) | [مالائی](../ms/README.md) | [ٹیگالوگ (فلپائنی)](../tl/README.md) | [سواحلی](../sw/README.md) | [ہنگریائی](../hu/README.md) | [چیک](../cs/README.md) | [سلوواک](../sk/README.md) | [رومانیائی](../ro/README.md) | [بلغاریائی](../bg/README.md) | [سربیائی (سیریلیک)](../sr/README.md) | [کروشین](../hr/README.md) | [سلووینیائی](../sl/README.md) -## مواد کا جدول - -- تعارف - - [Phi فیملی میں خوش آمدید](./md/01.Introduction/01/01.PhiFamily.md) - - [اپنے ماحول کو ترتیب دینا](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [اہم ٹیکنالوجیز کو سمجھنا](./md/01.Introduction/01/01.Understandingtech.md) - - [Phi ماڈلز کے لیے AI سیفٹی](./md/01.Introduction/01/01.AISafety.md) - - [Phi ہارڈویئر سپورٹ](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Phi ماڈلز اور پلیٹ فارمز پر دستیابی](./md/01.Introduction/01/01.Edgeandcloud.md) - - [Guidance-ai اور Phi کا استعمال](./md/01.Introduction/01/01.Guidance.md) - - [GitHub مارکیٹ پلیس ماڈلز](https://github.com/marketplace/models) +## 🌐 کثیراللسانی معاونت +[فرانسیسی](../fr/README.md) | [ہسپانوی](../es/README.md) | [جرمن](../de/README.md) | [روسی](../ru/README.md) | [عربی](../ar/README.md) | [فارسی (دری)](../fa/README.md) | [اردو](./README.md) | [چینی (سادہ)](../zh/README.md) | [چینی (روایتی، مکاو)](../mo/README.md) | [چینی (روایتی، ہانگ کانگ)](../hk/README.md) | [چینی (روایتی، تائیوان)](../tw/README.md) | [جاپانی](../ja/README.md) | [کوریائی](../ko/README.md) | [ہندی](../hi/README.md) [بنگالی](../bn/README.md) | [مراٹھی](../mr/README.md) | [نیپالی](../ne/README.md) | [پنجابی (گرمکھی)](../pa/README.md) | [پرتگالی (پرتگال)](../pt/README.md) | [پرتگالی (برازیل)](../br/README.md) | [اطالوی](../it/README.md) | [پولش](../pl/README.md) | [ترکی](../tr/README.md) | [یونانی](../el/README.md) | [تھائی](../th/README.md) | [سویڈش](../sv/README.md) | [ڈینش](../da/README.md) | [ناروے](../no/README.md) | [فنلندی](../fi/README.md) | [ڈچ](../nl/README.md) | [عبرانی](../he/README.md) | [ویتنامی](../vi/README.md) | [انڈونیشیائی](../id/README.md) | [ملائی](../ms/README.md) | [ٹگالوگ (فلپائنی)](../tl/README.md) | [سواحلی](../sw/README.md) | [ہنگریائی](../hu/README.md) | [چیک](../cs/README.md) | [سلوواک](../sk/README.md) | [رومانیائی](../ro/README.md) | [بلغاریائی](../bg/README.md) | [سربی (سیریلک)](../sr/README.md) | [کروشین](../hr/README.md) | [سلووینیائی](../sl/README.md) +## فہرست مضامین + +- تعارف + - [Phi فیملی میں خوش آمدید](./md/01.Introduction/01/01.PhiFamily.md) + - [اپنے ماحول کی ترتیب](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [اہم ٹیکنالوجیز کی سمجھ](./md/01.Introduction/01/01.Understandingtech.md) + - [Phi ماڈلز کے لیے AI کی حفاظت](./md/01.Introduction/01/01.AISafety.md) + - [Phi ہارڈویئر کی حمایت](./md/01.Introduction/01/01.Hardwaresupport.md) + - [Phi ماڈلز اور پلیٹ فارمز پر دستیابی](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Guidance-ai اور Phi کا استعمال](./md/01.Introduction/01/01.Guidance.md) + - [GitHub مارکیٹ پلیس ماڈلز](https://github.com/marketplace/models) - [Azure AI ماڈل کیٹلاگ](https://ai.azure.com) -- مختلف ماحول میں Phi کا انفرنس - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [GitHub ماڈلز](./md/01.Introduction/02/02.GitHubModel.md) - - [Azure AI Foundry ماڈل کیٹلاگ](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - -- Phi فیملی کا انفرنس - - [iOS میں Phi کا انفرنس](./md/01.Introduction/03/iOS_Inference.md) - - [Android میں Phi کا انفرنس](./md/01.Introduction/03/Android_Inference.md) - - [Jetson میں Phi کا انفرنس](./md/01.Introduction/03/Jetson_Inference.md) - - [AI PC میں Phi کا انفرنس](./md/01.Introduction/03/AIPC_Inference.md) - - [Apple MLX Framework کے ساتھ Phi کا انفرنس](./md/01.Introduction/03/MLX_Inference.md) - - [لوکل سرور میں Phi کا انفرنس](./md/01.Introduction/03/Local_Server_Inference.md) - - [AI Toolkit کے ذریعے ریموٹ سرور میں Phi کا انفرنس](./md/01.Introduction/03/Remote_Interence.md) - - [Rust کے ساتھ Phi کا انفرنس](./md/01.Introduction/03/Rust_Inference.md) - - [لوکل میں Phi--Vision کا انفرنس](./md/01.Introduction/03/Vision_Inference.md) - - [Kaito AKS، Azure Containers (سرکاری سپورٹ) کے ساتھ Phi کا انفرنس](./md/01.Introduction/03/Kaito_Inference.md) - -- [Phi فیملی کو مقدار میں لانا](./md/01.Introduction/04/QuantifyingPhi.md) - - [llama.cpp کا استعمال کرتے ہوئے Phi-3.5 / 4 کو مقدار میں لانا](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [onnxruntime کے لیے Generative AI ایکسٹینشنز کا استعمال کرتے ہوئے Phi-3.5 / 4 کو مقدار میں لانا](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [Intel OpenVINO کا استعمال کرتے ہوئے Phi-3.5 / 4 کو مقدار میں لانا](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [Apple MLX Framework کا استعمال کرتے ہوئے Phi-3.5 / 4 کو مقدار میں لانا](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- Phi کا جائزہ -- [ذمہ دار AI](./md/01.Introduction/05/ResponsibleAI.md) - - [ایزور AI فاؤنڈری برائے تشخیص](./md/01.Introduction/05/AIFoundry.md) - - [پرومپٹ فلو کا استعمال برائے تشخیص](./md/01.Introduction/05/Promptflow.md) - -- Azure AI سرچ کے ساتھ RAG - - [Azure AI سرچ کے ساتھ Phi-4-mini اور Phi-4-multimodal (RAG) کا استعمال کیسے کریں](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) - -- Phi ایپلیکیشن ڈیولپمنٹ کے نمونے - - ٹیکسٹ اور چیٹ ایپلیکیشنز - - Phi-4 نمونے 🆕 - - [📓] [Phi-4-mini ONNX ماڈل کے ساتھ چیٹ کریں](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [Phi-4 لوکل ONNX ماڈل .NET کے ساتھ چیٹ کریں](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [سیمینٹک کرنل کا استعمال کرتے ہوئے Phi-4 ONNX کے ساتھ چیٹ .NET کنسول ایپ](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) - - Phi-3 / 3.5 نمونے - - [Phi3، ONNX رن ٹائم ویب اور WebGPU کا استعمال کرتے ہوئے لوکل چیٹ بوٹ براؤزر میں](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [اوپن وینو چیٹ](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [ملٹی ماڈل - Phi-3-mini اور OpenAI Whisper کے ساتھ انٹرایکٹو](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - ایک ریپر بنانا اور Phi-3 کو MLFlow کے ساتھ استعمال کرنا](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [ماڈل آپٹیمائزیشن - ONNX رن ٹائم ویب کے لیے Phi-3-min ماڈل کو Olive کے ساتھ آپٹیمائز کرنے کا طریقہ](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [WinUI3 ایپ کے ساتھ Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3 ملٹی ماڈل AI پاورڈ نوٹس ایپ نمونہ](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [پرومپٹ فلو کے ساتھ کسٹم Phi-3 ماڈلز کو فائن ٹون اور انٹیگریٹ کریں](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [Azure AI فاؤنڈری میں پرومپٹ فلو کے ساتھ کسٹم Phi-3 ماڈلز کو فائن ٹون اور انٹیگریٹ کریں](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [Azure AI فاؤنڈری میں مائیکروسافٹ کے ذمہ دار AI اصولوں پر توجہ دیتے ہوئے فائن ٹونڈ Phi-3 / Phi-3.5 ماڈل کی تشخیص کریں](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct زبان کی پیشن گوئی کا نمونہ (چینی/انگریزی)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Phi-3.5-Instruct WebGPU RAG چیٹ بوٹ](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [Windows GPU کا استعمال کرتے ہوئے Phi-3.5-Instruct ONNX کے ساتھ پرومپٹ فلو حل بنائیں](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [Microsoft Phi-3.5 tflite کا استعمال کرتے ہوئے اینڈرائیڈ ایپ بنائیں](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [Microsoft.ML.OnnxRuntime کا استعمال کرتے ہوئے لوکل ONNX Phi-3 ماڈل کے ساتھ Q&A .NET مثال](../../md/04.HOL/dotnet/src/LabsPhi301) - - [سیمینٹک کرنل اور Phi-3 کے ساتھ کنسول چیٹ .NET ایپ](../../md/04.HOL/dotnet/src/LabsPhi302) - - - Azure AI انفرنس SDK کوڈ پر مبنی نمونے - - Phi-4 نمونے 🆕 - - [📓] [Phi-4-multimodal کا استعمال کرتے ہوئے پروجیکٹ کوڈ تیار کریں](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - - Phi-3 / 3.5 نمونے - - [Microsoft Phi-3 فیملی کے ساتھ اپنا Visual Studio Code GitHub Copilot چیٹ بنائیں](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [GitHub ماڈلز کے ذریعے Phi-3.5 کے ساتھ اپنا Visual Studio Code چیٹ کوپائلٹ ایجنٹ بنائیں](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) - - - ایڈوانسڈ ریزننگ کے نمونے - - Phi-4 نمونے 🆕 - - [📓] [Phi-4-mini ریزننگ کے نمونے](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - ڈیموز - - [Phi-4-mini ڈیموز جو Hugging Face Spaces پر ہوسٹ کیے گئے ہیں](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Phi-4-multimodal ڈیموز جو Hugging Face Spaces پر ہوسٹ کیے گئے ہیں](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - - وژن کے نمونے - - Phi-4 نمونے 🆕 - - [📓] [Phi-4-multimodal کا استعمال کرتے ہوئے تصاویر پڑھیں اور کوڈ تیار کریں](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 نمونے -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) +- مختلف ماحول میں Inference Phi + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub ماڈلز](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry ماڈل کیٹلاگ](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) + +- Inference Phi فیملی + - [iOS میں Inference Phi](./md/01.Introduction/03/iOS_Inference.md) + - [Android میں Inference Phi](./md/01.Introduction/03/Android_Inference.md) + - [Jetson میں Inference Phi](./md/01.Introduction/03/Jetson_Inference.md) + - [AI PC میں Inference Phi](./md/01.Introduction/03/AIPC_Inference.md) + - [Apple MLX فریم ورک کے ساتھ Inference Phi](./md/01.Introduction/03/MLX_Inference.md) + - [لوکل سرور میں Inference Phi](./md/01.Introduction/03/Local_Server_Inference.md) + - [ریموٹ سرور میں AI Toolkit کے ذریعے Inference Phi](./md/01.Introduction/03/Remote_Interence.md) + - [Rust کے ساتھ Inference Phi](./md/01.Introduction/03/Rust_Inference.md) + - [لوکل میں Inference Phi--Vision](./md/01.Introduction/03/Vision_Inference.md) + - [Kaito AKS، Azure Containers (سرکاری حمایت) کے ساتھ Inference Phi](./md/01.Introduction/03/Kaito_Inference.md) +- [Phi فیملی کی مقدار ناپنا](./md/01.Introduction/04/QuantifyingPhi.md) + - [llama.cpp کے ذریعے Phi-3.5 / 4 کی مقدار ناپنا](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [onnxruntime کے لیے Generative AI ایکسٹینشنز کے ذریعے Phi-3.5 / 4 کی مقدار ناپنا](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [Intel OpenVINO کے ذریعے Phi-3.5 / 4 کی مقدار ناپنا](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [Apple MLX فریم ورک کے ذریعے Phi-3.5 / 4 کی مقدار ناپنا](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Phi کا جائزہ +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [Azure AI Foundry for Evaluation](./md/01.Introduction/05/AIFoundry.md) + - [Using Promptflow for Evaluation](./md/01.Introduction/05/Promptflow.md) + +- RAG with Azure AI Search + - [Phi-4-mini اور Phi-4-multimodal(RAG) کو Azure AI Search کے ساتھ کیسے استعمال کریں](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) + +- Phi application development samples + - Text & Chat Applications + - Phi-4 Samples 🆕 + - [📓] [Phi-4-mini ONNX ماڈل کے ساتھ چیٹ کریں](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [Phi-4 لوکل ONNX ماڈل .NET کے ساتھ چیٹ کریں](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [Semantic Kernel استعمال کرتے ہوئے Phi-4 ONNX کے ساتھ .NET کنسول ایپ میں چیٹ کریں](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - Phi-3 / 3.5 Samples + - [Phi3، ONNX Runtime Web اور WebGPU استعمال کرتے ہوئے براؤزر میں لوکل چیٹ بوٹ](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVino چیٹ](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [متعدد ماڈل - انٹرایکٹو Phi-3-mini اور OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - ایک ریپر بنانا اور Phi-3 کو MLFlow کے ساتھ استعمال کرنا](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [ماڈل کی اصلاح - ONNX Runtime Web کے لیے Phi-3-min ماڈل کو Olive کے ساتھ کیسے بہتر بنایا جائے](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [Phi-3 mini-4k-instruct-onnx کے ساتھ WinUI3 ایپ](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + -[WinUI3 ملٹی ماڈل AI پاورڈ نوٹس ایپ کا نمونہ](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [اپنے کسٹم Phi-3 ماڈلز کو Prompt flow کے ساتھ Fine-tune اور انضمام کریں](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [Azure AI Foundry میں Prompt flow کے ساتھ اپنے کسٹم Phi-3 ماڈلز کو Fine-tune اور انضمام کریں](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [Microsoft کے Responsible AI اصولوں پر توجہ دیتے ہوئے Azure AI Foundry میں Fine-tuned Phi-3 / Phi-3.5 ماڈل کا جائزہ لیں](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct زبان کی پیشن گوئی کا نمونہ (چینی/انگریزی)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Phi-3.5-Instruct WebGPU RAG چیٹ بوٹ](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [Phi-3.5-Instruct ONNX کے ساتھ Prompt flow حل بنانے کے لیے Windows GPU کا استعمال](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [Android ایپ بنانے کے لیے Microsoft Phi-3.5 tflite کا استعمال](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [Microsoft.ML.OnnxRuntime استعمال کرتے ہوئے لوکل ONNX Phi-3 ماڈل کے ساتھ Q&A .NET مثال](../../md/04.HOL/dotnet/src/LabsPhi301) + - [Semantic Kernel اور Phi-3 کے ساتھ کنسول چیٹ .NET ایپ](../../md/04.HOL/dotnet/src/LabsPhi302) + + - Azure AI Inference SDK Code Based Samples + - Phi-4 Samples 🆕 + - [📓] [Phi-4-multimodal استعمال کرتے ہوئے پروجیکٹ کوڈ بنائیں](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - Phi-3 / 3.5 Samples + - [Microsoft Phi-3 فیملی کے ساتھ اپنا Visual Studio Code GitHub Copilot چیٹ بنائیں](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [GitHub ماڈلز کے ذریعے Phi-3.5 کے ساتھ اپنا Visual Studio Code چیٹ کوپائلٹ ایجنٹ بنائیں](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + + - Advanced Reasoning Samples + - Phi-4 Samples 🆕 + - [📓] [Phi-4-mini-reasoning یا Phi-4-reasoning کے نمونے](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [Microsoft Olive کے ساتھ Phi-4-mini-reasoning کو Fine-tune کرنا](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [Apple MLX کے ساتھ Phi-4-mini-reasoning کو Fine-tune کرنا](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [GitHub ماڈلز کے ساتھ Phi-4-mini-reasoning](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini reasoning with Azure AI Foundry Models](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - ڈیموز + - [Phi-4-mini demos hosted on Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4-multimodal demos hosted on Hugginge Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - وژن کے نمونے + - Phi-4 کے نمونے 🆕 + - [📓] [تصاویر پڑھنے اور کوڈ بنانے کے لیے Phi-4-multimodal استعمال کریں](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) + - Phi-3 / 3.5 کے نمونے + - [📓][Phi-3-vision-تصویر سے متن تک](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [ڈیمو: Phi-3 ری سائیکلنگ](https://github.com/jennifermarsman/PhiRecycling/) + - [📓][Phi-3-vision CLIP ایمبیڈنگ](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [DEMO: Phi-3 ری سائیکلنگ](https://github.com/jennifermarsman/PhiRecycling/) - [Phi-3-vision - بصری زبان کا معاون - Phi3-Vision اور OpenVINO کے ساتھ](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision کثیر فریم یا کثیر تصویر نمونہ](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision لوکل ONNX ماڈل Microsoft.ML.OnnxRuntime .NET استعمال کرتے ہوئے](../../md/04.HOL/dotnet/src/LabsPhi303) - - [مینو پر مبنی Phi-3 Vision لوکل ONNX ماڈل Microsoft.ML.OnnxRuntime .NET استعمال کرتے ہوئے](../../md/04.HOL/dotnet/src/LabsPhi304) - - - آڈیو نمونے - - Phi-4 نمونے 🆕 - - [📓] [آڈیو ٹرانسکرپٹس نکالنا Phi-4-multimodal استعمال کرتے ہوئے](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [Phi-3 وژن Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) + - [Phi-3 وژن OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) + - [📓][Phi-3.5 وژن ملٹی فریم یا ملٹی امیج نمونہ](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Phi-3 وژن لوکل ONNX ماڈل Microsoft.ML.OnnxRuntime .NET استعمال کرتے ہوئے](../../md/04.HOL/dotnet/src/LabsPhi303) + - [مینیو کی بنیاد پر Phi-3 وژن لوکل ONNX ماڈل Microsoft.ML.OnnxRuntime .NET استعمال کرتے ہوئے](../../md/04.HOL/dotnet/src/LabsPhi304) + + - آڈیو کے نمونے + - Phi-4 کے نمونے 🆕 + - [📓] [Phi-4-multimodal سے آڈیو ٹرانسکرپٹس نکالنا](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - [📓] [Phi-4-multimodal آڈیو نمونہ](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Phi-4-multimodal تقریر ترجمہ نمونہ](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET کنسول ایپلیکیشن Phi-4-multimodal آڈیو استعمال کرتے ہوئے آڈیو فائل کا تجزیہ کرنے اور ٹرانسکرپٹ بنانے کے لیے](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) + - [📓] [Phi-4-multimodal تقریر ترجمہ کا نمونہ](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [.NET کنسول ایپلیکیشن جو Phi-4-multimodal آڈیو استعمال کرتے ہوئے آڈیو فائل کا تجزیہ اور ٹرانسکرپٹ بناتی ہے](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - MOE نمونے - - Phi-3 / 3.5 نمونے + - MOE کے نمونے + - Phi-3 / 3.5 کے نمونے - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) سوشل میڈیا نمونہ](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [Retrieval-Augmented Generation (RAG) پائپ لائن بنانا NVIDIA NIM Phi-3 MOE، Azure AI Search، اور LlamaIndex کے ساتھ](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - - فنکشن کالنگ نمونے - - Phi-4 نمونے 🆕 - - [📓] [فنکشن کالنگ استعمال کرتے ہوئے Phi-4-mini کے ساتھ](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [فنکشن کالنگ استعمال کرتے ہوئے کثیر ایجنٹس بنانا Phi-4-mini کے ساتھ](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [فنکشن کالنگ Ollama کے ساتھ استعمال کرتے ہوئے](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - - کثیر ماڈل مکسنگ نمونے - - Phi-4 نمونے 🆕 - - [📓] [Phi-4-multimodal استعمال کرتے ہوئے ایک ٹیکنالوجی صحافی کے طور پر](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET کنسول ایپلیکیشن Phi-4-multimodal استعمال کرتے ہوئے تصاویر کا تجزیہ کرنے کے لیے](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Phi نمونوں کی فائن ٹیوننگ + - [📓] [NVIDIA NIM Phi-3 MOE، Azure AI Search، اور LlamaIndex کے ساتھ Retrieval-Augmented Generation (RAG) پائپ لائن بنانا](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - فنکشن کالنگ کے نمونے + - Phi-4 کے نمونے 🆕 + - [📓] [Phi-4-mini کے ساتھ فنکشن کالنگ استعمال کرنا](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [Phi-4-mini کے ساتھ ملٹی ایجنٹس بنانے کے لیے فنکشن کالنگ استعمال کرنا](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [Ollama کے ساتھ فنکشن کالنگ استعمال کرنا](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - ملٹی موڈل مکسنگ کے نمونے + - Phi-4 کے نمونے 🆕 + - [📓] [Phi-4-multimodal کو ٹیکنالوجی صحافی کے طور پر استعمال کرنا](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET کنسول ایپلیکیشن جو Phi-4-multimodal استعمال کرتے ہوئے تصاویر کا تجزیہ کرتی ہے](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Phi کے نمونوں کی فائن ٹیوننگ - [فائن ٹیوننگ کے منظرنامے](./md/03.FineTuning/FineTuning_Scenarios.md) - [فائن ٹیوننگ بمقابلہ RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [Phi-3 کو صنعت کا ماہر بنانے کی فائن ٹیوننگ](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [Phi-3 کو AI Toolkit for VS Code کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [Phi-3 کو Azure Machine Learning Service کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/Introduce_AzureML.md) - - [Phi-3 کو Lora کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/FineTuning_Lora.md) - - [Phi-3 کو QLora کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/FineTuning_Qlora.md) - - [Phi-3 کو Azure AI Foundry کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [Phi-3 کو Azure ML CLI/SDK کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/FineTuning_MLSDK.md) -- [مائیکروسافٹ اولیو کے ساتھ فائن ٹیوننگ](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [مائیکروسافٹ اولیو کے ساتھ فائن ٹیوننگ ہینڈز آن لیب](./md/03.FineTuning/olive-lab/readme.md) - - [وزن اور بائس کے ساتھ Phi-3-vision کی فائن ٹیوننگ](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - - [ایپل MLX فریم ورک کے ساتھ Phi-3 کی فائن ٹیوننگ](./md/03.FineTuning/FineTuning_MLX.md) - - [Phi-3-vision کی فائن ٹیوننگ (آفیشل سپورٹ)](./md/03.FineTuning/FineTuning_Vision.md) - - [Kaito AKS، Azure Containers کے ساتھ Phi-3 کی فائن ٹیوننگ (آفیشل سپورٹ)](./md/03.FineTuning/FineTuning_Kaito.md) - - [Phi-3 اور 3.5 Vision کی فائن ٹیوننگ](https://github.com/2U1/Phi3-Vision-Finetune) + - [Phi-3 کو انڈسٹری ایکسپرٹ بنانے کے لیے فائن ٹیوننگ](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [VS Code کے AI Toolkit کے ساتھ Phi-3 کی فائن ٹیوننگ](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [Azure Machine Learning Service کے ساتھ Phi-3 کی فائن ٹیوننگ](./md/03.FineTuning/Introduce_AzureML.md) +- [Fine-tuning Phi-3 with Lora](./md/03.FineTuning/FineTuning_Lora.md) + - [Fine-tuning Phi-3 with QLora](./md/03.FineTuning/FineTuning_Qlora.md) + - [Fine-tuning Phi-3 with Azure AI Foundry](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [Fine-tuning Phi-3 with Azure ML CLI/SDK](./md/03.FineTuning/FineTuning_MLSDK.md) + - [Fine-tuning with Microsoft Olive](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Fine-tuning with Microsoft Olive Hands-On Lab](./md/03.FineTuning/olive-lab/readme.md) + - [Fine-tuning Phi-3-vision with Weights and Bias](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) + - [Fine-tuning Phi-3 with Apple MLX Framework](./md/03.FineTuning/FineTuning_MLX.md) + - [Fine-tuning Phi-3-vision (official support)](./md/03.FineTuning/FineTuning_Vision.md) + - [Fine-Tuning Phi-3 with Kaito AKS , Azure Containers(official Support)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Fine-Tuning Phi-3 and 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) -- ہینڈز آن لیب - - [جدید ماڈلز کی کھوج: LLMs، SLMs، مقامی ترقی اور مزید](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [NLP کی صلاحیتوں کو کھولنا: مائیکروسافٹ اولیو کے ساتھ فائن ٹیوننگ](https://github.com/azure/Ignite_FineTuning_workshop) +- Hands on Lab + - [جدید ترین ماڈلز کی تلاش: LLMs، SLMs، لوکل ڈیولپمنٹ اور مزید](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [NLP کی صلاحیت کو کھولنا: Microsoft Olive کے ساتھ Fine-Tuning](https://github.com/azure/Ignite_FineTuning_workshop) -- تعلیمی تحقیقی مقالے اور اشاعتیں - - [Textbooks Are All You Need II: phi-1.5 تکنیکی رپورٹ](https://arxiv.org/abs/2309.05463) - - [Phi-3 تکنیکی رپورٹ: ایک انتہائی قابل زبان ماڈل جو آپ کے فون پر مقامی طور پر چل سکتا ہے](https://arxiv.org/abs/2404.14219) - - [Phi-4 تکنیکی رپورٹ](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini تکنیکی رپورٹ: Mixture-of-LoRAs کے ذریعے کمپیکٹ لیکن طاقتور ملٹی موڈل لینگویج ماڈلز](https://arxiv.org/abs/2503.01743) - - [گاڑی کے اندر فنکشن کالنگ کے لیے چھوٹے زبان ماڈلز کی اصلاح](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) متعدد انتخابی سوالات کے جوابات کے لیے PHI-3 کی فائن ٹیوننگ: طریقہ کار، نتائج، اور چیلنجز](https://arxiv.org/abs/2501.01588) +- Academic Research Papers and Publications + - [Textbooks Are All You Need II: phi-1.5 technical report](https://arxiv.org/abs/2309.05463) + - [Phi-3 Technical Report: آپ کے فون پر ایک انتہائی قابل زبان ماڈل](https://arxiv.org/abs/2404.14219) + - [Phi-4 Technical Report](https://arxiv.org/abs/2412.08905) + - [Phi-4-Mini Technical Report: کمپیکٹ لیکن طاقتور ملٹی موڈل زبان ماڈلز Mixture-of-LoRAs کے ذریعے](https://arxiv.org/abs/2503.01743) + - [گاڑی میں فنکشن کالنگ کے لیے چھوٹے زبان ماڈلز کی اصلاح](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) Fine-Tuning PHI-3 برائے ملٹیپل چوائس سوالات کا جواب دینا: طریقہ کار، نتائج، اور چیلنجز](https://arxiv.org/abs/2501.01588) + - [Phi-4-reasoning Technical Report](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini-reasoning Technical Report](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) -## Phi ماڈلز کا استعمال +## Phi ماڈلز کا استعمال -### Azure AI Foundry پر Phi +### Phi on Azure AI Foundry -آپ مائیکروسافٹ Phi کو استعمال کرنے اور مختلف ہارڈویئر ڈیوائسز پر E2E سلوشنز بنانے کے طریقے سیکھ سکتے ہیں۔ Phi کو خود تجربہ کرنے کے لیے، ماڈلز کے ساتھ کھیلنا شروع کریں اور اپنے منظرناموں کے لیے Phi کو حسب ضرورت بنائیں۔ مزید معلومات کے لیے [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) دیکھیں۔ شروع کرنے کے لیے [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) پر گائیڈ ملاحظہ کریں۔ +آپ سیکھ سکتے ہیں کہ Microsoft Phi کو کیسے استعمال کیا جائے اور اپنے مختلف ہارڈویئر ڈیوائسز میں E2E حل کیسے بنائیں۔ Phi کا تجربہ کرنے کے لیے، ماڈلز کے ساتھ کھیلنا شروع کریں اور اپنے مناظر کے لیے Phi کو حسب ضرورت بنائیں [Azure AI Foundry Azure AI Model Catalog](https://aka.ms/phi3-azure-ai) پر۔ آپ مزید جان سکتے ہیں Getting Started with [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) سے۔ -**پلے گراؤنڈ** -ہر ماڈل کا ایک مخصوص پلے گراؤنڈ ہے جہاں آپ ماڈل کو آزما سکتے ہیں [Azure AI Playground](https://aka.ms/try-phi3)۔ +**Playground** +ہر ماڈل کے لیے ایک مخصوص playground موجود ہے جہاں ماڈل کو آزمایا جا سکتا ہے [Azure AI Playground](https://aka.ms/try-phi3)۔ -### GitHub ماڈلز پر Phi +### Phi on GitHub Models -آپ مائیکروسافٹ Phi کو استعمال کرنے اور مختلف ہارڈویئر ڈیوائسز پر E2E سلوشنز بنانے کے طریقے سیکھ سکتے ہیں۔ Phi کو خود تجربہ کرنے کے لیے، ماڈل کے ساتھ کھیلنا شروع کریں اور اپنے منظرناموں کے لیے Phi کو حسب ضرورت بنائیں۔ مزید معلومات کے لیے [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) دیکھیں۔ شروع کرنے کے لیے [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) پر گائیڈ ملاحظہ کریں۔ +آپ سیکھ سکتے ہیں کہ Microsoft Phi کو کیسے استعمال کیا جائے اور اپنے مختلف ہارڈویئر ڈیوائسز میں E2E حل کیسے بنائیں۔ Phi کا تجربہ کرنے کے لیے، ماڈل کے ساتھ کھیلنا شروع کریں اور اپنے مناظر کے لیے Phi کو حسب ضرورت بنائیں [GitHub Model Catalog](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) پر۔ آپ مزید جان سکتے ہیں Getting Started with [GitHub Model Catalog](/md/02.QuickStart/GitHubModel_QuickStart.md) سے۔ -**پلے گراؤنڈ** -ہر ماڈل کا ایک مخصوص [پلے گراؤنڈ ہے جہاں آپ ماڈل کو آزما سکتے ہیں](/md/02.QuickStart/GitHubModel_QuickStart.md)۔ +**Playground** +ہر ماڈل کے لیے ایک مخصوص [playground جہاں ماڈل کو آزمایا جا سکتا ہے](/md/02.QuickStart/GitHubModel_QuickStart.md)۔ -### Hugging Face پر Phi +### Phi on Hugging Face -آپ ماڈل کو [Hugging Face](https://huggingface.co/microsoft) پر بھی تلاش کر سکتے ہیں۔ +آپ ماڈل کو [Hugging Face](https://huggingface.co/microsoft) پر بھی تلاش کر سکتے ہیں۔ -**پلے گراؤنڈ** -[Hugging Chat پلے گراؤنڈ](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) +**Playground** +[Hugging Chat playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) -## ذمہ دار AI +## ذمہ دار AI -مائیکروسافٹ اپنے صارفین کو ہمارے AI پروڈکٹس کو ذمہ داری سے استعمال کرنے میں مدد دینے، اپنی سیکھنے کی معلومات شیئر کرنے، اور شفافیت نوٹس اور اثرات کی تشخیص جیسے ٹولز کے ذریعے اعتماد پر مبنی شراکت داری بنانے کے لیے پرعزم ہے۔ ان وسائل میں سے بہت سے کو [https://aka.ms/RAI](https://aka.ms/RAI) پر پایا جا سکتا ہے۔ -مائیکروسافٹ کا ذمہ دار AI کے حوالے سے نقطہ نظر ہمارے AI اصولوں پر مبنی ہے، جن میں انصاف، قابل اعتبار اور حفاظت، پرائیویسی اور سیکیورٹی، شمولیت، شفافیت، اور جوابدہی شامل ہیں۔ +Microsoft اپنے صارفین کی مدد کے لیے پرعزم ہے تاکہ وہ ہمارے AI مصنوعات کو ذمہ داری سے استعمال کریں، اپنے تجربات شیئر کریں، اور شفافیت نوٹس اور اثرات کے جائزوں جیسے ٹولز کے ذریعے اعتماد پر مبنی شراکت داریاں قائم کریں۔ ان میں سے بہت سے وسائل [https://aka.ms/RAI](https://aka.ms/RAI) پر دستیاب ہیں۔ +Microsoft کا ذمہ دار AI کے لیے نقطہ نظر ہمارے AI اصولوں پر مبنی ہے جو انصاف، اعتبار اور حفاظت، پرائیویسی اور سیکیورٹی، شمولیت، شفافیت، اور جوابدہی پر مشتمل ہے۔ +نمونے میں استعمال ہونے والے بڑے پیمانے پر قدرتی زبان، تصویر، اور تقریر کے ماڈلز ممکنہ طور پر غیر منصفانہ، غیر قابل اعتماد، یا توہین آمیز طریقوں سے برتاؤ کر سکتے ہیں، جو کہ نقصان دہ ہو سکتے ہیں۔ خطرات اور حدود کے بارے میں آگاہی کے لیے براہ کرم [Azure OpenAI service Transparency note](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) ملاحظہ کریں۔ -بڑے پیمانے پر قدرتی زبان، تصاویر، اور آواز کے ماڈلز - جیسے کہ اس نمونے میں استعمال کیے گئے - ممکنہ طور پر غیر منصفانہ، ناقابل اعتماد، یا جارحانہ رویہ اختیار کر سکتے ہیں، جو نقصان کا باعث بن سکتے ہیں۔ خطرات اور حدود سے آگاہ ہونے کے لیے [Azure OpenAI سروس شفافیت نوٹ](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) کو ضرور ملاحظہ کریں۔ +ان خطرات کو کم کرنے کے لیے تجویز کردہ طریقہ یہ ہے کہ اپنی ساخت میں ایک حفاظتی نظام شامل کریں جو نقصان دہ رویے کا پتہ لگا سکے اور اسے روک سکے۔ [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) ایک آزاد حفاظتی پرت فراہم کرتا ہے جو ایپلیکیشنز اور خدمات میں صارف کی جانب سے اور AI کی جانب سے پیدا کردہ نقصان دہ مواد کا پتہ لگا سکتا ہے۔ Azure AI Content Safety میں ٹیکسٹ اور تصویر کے API شامل ہیں جو نقصان دہ مواد کی نشاندہی کرنے کی اجازت دیتے ہیں۔ Azure AI Foundry کے اندر، Content Safety سروس آپ کو مختلف طریقوں میں نقصان دہ مواد کا پتہ لگانے کے لیے نمونہ کوڈ دیکھنے، تلاش کرنے اور آزمانے کی سہولت دیتی ہے۔ درج ذیل [quickstart documentation](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) آپ کو سروس سے درخواستیں کرنے کے عمل میں رہنمائی فراہم کرتی ہے۔ -ان خطرات کو کم کرنے کے لیے تجویز کردہ نقطہ نظر یہ ہے کہ آپ اپنی آرکیٹیکچر میں ایک حفاظتی نظام شامل کریں جو نقصان دہ رویے کا پتہ لگانے اور روکنے کی صلاحیت رکھتا ہو۔ [Azure AI Content Safety](https://learn.microsoft.com/azure/ai-services/content-safety/overview) ایک آزاد حفاظتی پرت فراہم کرتا ہے، جو ایپلی کیشنز اور سروسز میں نقصان دہ مواد کو پتہ لگانے کے قابل ہے۔ Azure AI Content Safety میں متن اور تصویر کے APIs شامل ہیں جو نقصان دہ مواد کا پتہ لگانے کی اجازت دیتے ہیں۔ Azure AI Foundry کے اندر، Content Safety سروس آپ کو مختلف طریقوں میں نقصان دہ مواد کا پتہ لگانے کے لیے نمونے کے کوڈ کو دیکھنے، دریافت کرنے، اور آزمانے کی اجازت دیتی ہے۔ درج ذیل [کوئیک اسٹارٹ ڈاکیومنٹیشن](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) سروس کے لیے درخواستیں کرنے کے طریقے پر گائیڈ کرتی ہے۔ +ایک اور پہلو جسے مدنظر رکھنا ضروری ہے وہ مجموعی ایپلیکیشن کی کارکردگی ہے۔ کثیر وضع اور کثیر ماڈل ایپلیکیشنز کے ساتھ، ہم کارکردگی کو اس معنی میں لیتے ہیں کہ نظام آپ اور آپ کے صارفین کی توقعات کے مطابق کام کرے، جس میں نقصان دہ نتائج پیدا نہ کرنا بھی شامل ہے۔ اپنی مجموعی ایپلیکیشن کی کارکردگی کا اندازہ لگانے کے لیے [Performance and Quality and Risk and Safety evaluators](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) کا استعمال کریں۔ آپ کے پاس [custom evaluators](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) بنانے اور ان کا جائزہ لینے کی بھی صلاحیت موجود ہے۔ -ایک اور پہلو جس پر غور کرنا ضروری ہے وہ مجموعی ایپلیکیشن کی کارکردگی ہے۔ ملٹی موڈل اور ملٹی ماڈلز ایپلیکیشنز کے ساتھ، کارکردگی سے مراد یہ ہے کہ نظام آپ اور آپ کے صارفین کی توقعات کے مطابق کام کرتا ہے، بشمول نقصان دہ آؤٹ پٹ پیدا نہ کرنا۔ اپنی مجموعی ایپلیکیشن کی کارکردگی کا جائزہ لینا اہم ہے، جس میں [پرفارمنس اور کوالٹی اور رسک اینڈ سیفٹی ایویلیویٹرز](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) شامل ہیں۔ آپ کے پاس [حسب ضرورت ایویلیویٹرز](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators) بنانے اور ان کا جائزہ لینے کی صلاحیت بھی موجود ہے۔ -آپ اپنے ترقیاتی ماحول میں [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) استعمال کرتے ہوئے اپنی AI ایپلیکیشن کا جائزہ لے سکتے ہیں۔ دیے گئے ٹیسٹ ڈیٹاسیٹ یا ہدف کی بنیاد پر، آپ کی جنریٹو AI ایپلیکیشن کی تخلیقات کو بلٹ-ان ایویلیوئیٹرز یا آپ کی پسند کے کسٹم ایویلیوئیٹرز کے ذریعے مقداری طور پر ماپا جاتا ہے۔ Azure AI Evaluation SDK کے ساتھ اپنے سسٹم کا جائزہ لینے کے لیے شروع کرنے کے لیے، آپ [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) کی پیروی کر سکتے ہیں۔ جب آپ ایک ایویلیوایشن رن مکمل کرتے ہیں، تو آپ [Azure AI Foundry میں نتائج کو دیکھ سکتے ہیں](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)۔ +آپ اپنے AI ایپلیکیشن کا جائزہ اپنے ترقیاتی ماحول میں [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) کا استعمال کرتے ہوئے لے سکتے ہیں۔ چاہے آپ کے پاس ٹیسٹ ڈیٹا سیٹ ہو یا کوئی ہدف، آپ کی جنریٹیو AI ایپلیکیشن کی جنریشنز کو بلٹ ان یا اپنی پسند کے کسٹم ایولیویٹرز کے ذریعے مقداری طور پر ناپا جاتا ہے۔ اپنے نظام کا جائزہ لینے کے لیے Azure AI Evaluation SDK کے ساتھ شروع کرنے کے لیے، آپ [quickstart guide](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk) پر عمل کر سکتے ہیں۔ ایک بار جب آپ جائزہ چلائیں گے، تو آپ [Azure AI Foundry میں نتائج کو دیکھ سکتے ہیں](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)۔ -## ٹریڈمارکس +## Trademarks -یہ پروجیکٹ ان پروجیکٹس، مصنوعات، یا خدمات کے لیے ٹریڈمارکس یا لوگوز پر مشتمل ہو سکتا ہے۔ مائیکروسافٹ کے ٹریڈمارکس یا لوگوز کے مجاز استعمال کو [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) کے مطابق ہونا چاہیے اور ان کی پیروی کرنی چاہیے۔ -اس پروجیکٹ کے ترمیم شدہ ورژنز میں مائیکروسافٹ کے ٹریڈمارکس یا لوگوز کا استعمال کسی قسم کی الجھن پیدا نہیں کرنا چاہیے یا مائیکروسافٹ کی اسپانسرشپ کا اشارہ نہیں دینا چاہیے۔ کسی بھی تیسرے فریق کے ٹریڈمارکس یا لوگوز کا استعمال ان تیسرے فریق کی پالیسیوں کے تابع ہے۔ +یہ پروجیکٹ ممکنہ طور پر پروجیکٹس، مصنوعات، یا خدمات کے ٹریڈ مارکس یا لوگوز پر مشتمل ہو سکتا ہے۔ Microsoft کے ٹریڈ مارکس یا لوگوز کے مجاز استعمال کے لیے [Microsoft's Trademark & Brand Guidelines](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general) کی پیروی ضروری ہے۔ +Microsoft کے ٹریڈ مارکس یا لوگوز کا اس پروجیکٹ کے ترمیم شدہ ورژنز میں استعمال الجھن پیدا نہیں کرے گا اور نہ ہی Microsoft کی حمایت کا تاثر دے گا۔ کسی بھی تیسرے فریق کے ٹریڈ مارکس یا لوگوز کا استعمال ان فریقوں کی پالیسیوں کے تابع ہے۔ -**ڈسکلوزر**: -یہ دستاویز AI ترجمہ سروس [Co-op Translator](https://github.com/Azure/co-op-translator) کا استعمال کرتے ہوئے ترجمہ کی گئی ہے۔ ہم درستگی کے لئے کوشش کرتے ہیں، لیکن براہ کرم آگاہ رہیں کہ خودکار ترجمے میں غلطیاں یا غیر درستیاں ہو سکتی ہیں۔ اصل دستاویز کو اس کی اصل زبان میں مستند ذریعہ سمجھا جانا چاہیے۔ اہم معلومات کے لئے، پیشہ ور انسانی ترجمہ کی سفارش کی جاتی ہے۔ ہم اس ترجمے کے استعمال سے پیدا ہونے والی کسی بھی غلط فہمی یا غلط تشریح کے ذمہ دار نہیں ہیں۔ \ No newline at end of file +**دستخط**: +یہ دستاویز AI ترجمہ سروس [Co-op Translator](https://github.com/Azure/co-op-translator) کے ذریعے ترجمہ کی گئی ہے۔ اگرچہ ہم درستگی کی کوشش کرتے ہیں، براہ کرم آگاہ رہیں کہ خودکار ترجموں میں غلطیاں یا بے دقتیاں ہو سکتی ہیں۔ اصل دستاویز اپنی مادری زبان میں ہی معتبر ماخذ سمجھی جانی چاہیے۔ اہم معلومات کے لیے پیشہ ور انسانی ترجمہ تجویز کیا جاتا ہے۔ ہم اس ترجمہ کے استعمال سے پیدا ہونے والی کسی بھی غلط فہمی یا غلط تعبیر کے ذمہ دار نہیں ہیں۔ \ No newline at end of file diff --git a/translations/zh/README.md b/translations/zh/README.md index c7dceeb5..56b95dad 100644 --- a/translations/zh/README.md +++ b/translations/zh/README.md @@ -1,234 +1,240 @@ -# Phi 使用手册:Microsoft Phi 模型实践示例 +# Phi Cookbook:使用微软Phi模型的实操示例 -[![在 GitHub Codespaces 中打开并使用示例](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) -[![在 Dev Containers 中打开](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) +[![在GitHub Codespaces中打开并使用示例](https://github.com/codespaces/badge.svg)](https://codespaces.new/microsoft/phicookbook) +[![在Dev Containers中打开](https://img.shields.io/static/v1?style=for-the-badge&label=Dev%20Containers&message=Open&color=blue&logo=visualstudiocode)](https://vscode.dev/redirect?url=vscode://ms-vscode-remote.remote-containers/cloneInVolume?url=https://github.com/microsoft/phicookbook) -[![GitHub 贡献者](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub 问题](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub 拉取请求](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) -[![欢迎提交 PR](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub贡献者](https://img.shields.io/github/contributors/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/graphs/contributors/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub问题](https://img.shields.io/github/issues/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/issues/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub拉取请求](https://img.shields.io/github/issues-pr/microsoft/phicookbook.svg)](https://GitHub.com/microsoft/phicookbook/pulls/?WT.mc_id=aiml-137032-kinfeylo) +[![欢迎PR](https://img.shields.io/badge/PRs-welcome-brightgreen.svg?style=flat-square)](http://makeapullrequest.com?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub 关注者](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub 派生](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) -[![GitHub 星标](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub关注者](https://img.shields.io/github/watchers/microsoft/phicookbook.svg?style=social&label=Watch)](https://GitHub.com/microsoft/phicookbook/watchers/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub分叉](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +[![GitHub星标](https://img.shields.io/github/stars/microsoft/phicookbook?style=social&label=Star)](https://GitHub.com/microsoft/phicookbook/stargazers/?WT.mc_id=aiml-137032-kinfeylo) -[![Azure AI 社区 Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -Phi 是由 Microsoft 开发的一系列开源 AI 模型。 +[![Azure AI社区Discord](https://dcbadge.vercel.app/api/server/ByRwuEEgH4)](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) -Phi 目前是性能最强、性价比最高的小型语言模型(SLM),在多语言、推理、文本/聊天生成、代码生成、图像、音频及其他场景中表现优异。 +Phi是微软开发的一系列开源AI模型。 -您可以将 Phi 部署到云端或边缘设备,并且可以轻松利用有限的计算资源构建生成式 AI 应用。 +Phi目前是最强大且性价比最高的小型语言模型(SLM),在多语言、推理、文本/聊天生成、编码、图像、音频及其他场景中表现优异。 + +你可以将Phi部署到云端或边缘设备上,并且可以轻松构建计算资源有限的生成式AI应用。 按照以下步骤开始使用这些资源: -1. **Fork 仓库**:点击 [![GitHub 派生](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) +1. **Fork仓库**:点击 [![GitHub分叉](https://img.shields.io/github/forks/microsoft/phicookbook.svg?style=social&label=Fork)](https://GitHub.com/microsoft/phicookbook/network/?WT.mc_id=aiml-137032-kinfeylo) 2. **克隆仓库**: `git clone https://github.com/microsoft/PhiCookBook.git` -3. [**加入 Microsoft AI Discord 社区,与专家和开发者交流**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) +3. [**加入微软AI Discord社区,结识专家和开发者**](https://discord.com/invite/ByRwuEEgH4?WT.mc_id=aiml-137032-kinfeylo) ![封面](../../translated_images/cover.2595d43b382944c601aebf88583314636768eece3d94e8e4448e03a4e5bedef4.zh.png) ## 🌐 多语言支持 -[法语](../fr/README.md) | [西班牙语](../es/README.md) | [德语](../de/README.md) | [俄语](../ru/README.md) | [阿拉伯语](../ar/README.md) | [波斯语 (法尔西语)](../fa/README.md) | [乌尔都语](../ur/README.md) | [中文(简体)](./README.md) | [中文(繁体,澳门)](../mo/README.md) | [中文(繁体,香港)](../hk/README.md) | [中文(繁体,台湾)](../tw/README.md) | [日语](../ja/README.md) | [韩语](../ko/README.md) | [印地语](../hi/README.md) | [孟加拉语](../bn/README.md) | [马拉地语](../mr/README.md) | [尼泊尔语](../ne/README.md) | [旁遮普语 (古木基语)](../pa/README.md) | [葡萄牙语(葡萄牙)](../pt/README.md) | [葡萄牙语(巴西)](../br/README.md) | [意大利语](../it/README.md) | [波兰语](../pl/README.md) | [土耳其语](../tr/README.md) | [希腊语](../el/README.md) | [泰语](../th/README.md) | [瑞典语](../sv/README.md) | [丹麦语](../da/README.md) | [挪威语](../no/README.md) | [芬兰语](../fi/README.md) | [荷兰语](../nl/README.md) | [希伯来语](../he/README.md) | [越南语](../vi/README.md) | [印尼语](../id/README.md) | [马来语](../ms/README.md) | [他加禄语 (菲律宾语)](../tl/README.md) | [斯瓦希里语](../sw/README.md) | [匈牙利语](../hu/README.md) | [捷克语](../cs/README.md) | [斯洛伐克语](../sk/README.md) | [罗马尼亚语](../ro/README.md) | [保加利亚语](../bg/README.md) | [塞尔维亚语(西里尔文)](../sr/README.md) | [克罗地亚语](../hr/README.md) | [斯洛文尼亚语](../sl/README.md) +[法语](../fr/README.md) | [西班牙语](../es/README.md) | [德语](../de/README.md) | [俄语](../ru/README.md) | [阿拉伯语](../ar/README.md) | [波斯语 (法尔西语)](../fa/README.md) | [乌尔都语](../ur/README.md) | [中文 (简体)](./README.md) | [中文 (繁体,澳门)](../mo/README.md) | [中文 (繁体,香港)](../hk/README.md) | [中文 (繁体,台湾)](../tw/README.md) | [日语](../ja/README.md) | [韩语](../ko/README.md) | [印地语](../hi/README.md) [孟加拉语](../bn/README.md) | [马拉地语](../mr/README.md) | [尼泊尔语](../ne/README.md) | [旁遮普语 (古鲁姆克希文)](../pa/README.md) | [葡萄牙语 (葡萄牙)](../pt/README.md) | [葡萄牙语 (巴西)](../br/README.md) | [意大利语](../it/README.md) | [波兰语](../pl/README.md) | [土耳其语](../tr/README.md) | [希腊语](../el/README.md) | [泰语](../th/README.md) | [瑞典语](../sv/README.md) | [丹麦语](../da/README.md) | [挪威语](../no/README.md) | [芬兰语](../fi/README.md) | [荷兰语](../nl/README.md) | [希伯来语](../he/README.md) | [越南语](../vi/README.md) | [印尼语](../id/README.md) | [马来语](../ms/README.md) | [他加禄语 (菲律宾语)](../tl/README.md) | [斯瓦希里语](../sw/README.md) | [匈牙利语](../hu/README.md) | [捷克语](../cs/README.md) | [斯洛伐克语](../sk/README.md) | [罗马尼亚语](../ro/README.md) | [保加利亚语](../bg/README.md) | [塞尔维亚语 (西里尔文)](../sr/README.md) | [克罗地亚语](../hr/README.md) | [斯洛文尼亚语](../sl/README.md) ## 目录 -- 简介 +- 介绍 - [欢迎加入Phi家族](./md/01.Introduction/01/01.PhiFamily.md) - - [设置您的环境](./md/01.Introduction/01/01.EnvironmentSetup.md) - - [了解关键技术](./md/01.Introduction/01/01.Understandingtech.md) - - [Phi模型的AI安全性](./md/01.Introduction/01/01.AISafety.md) + - [环境搭建](./md/01.Introduction/01/01.EnvironmentSetup.md) + - [关键技术解析](./md/01.Introduction/01/01.Understandingtech.md) + - [Phi模型的AI安全](./md/01.Introduction/01/01.AISafety.md) - [Phi硬件支持](./md/01.Introduction/01/01.Hardwaresupport.md) - - [Phi模型及跨平台可用性](./md/01.Introduction/01/01.Edgeandcloud.md) - - [使用Guidance-ai和Phi](./md/01.Introduction/01/01.Guidance.md) + - [Phi模型及其在各平台的可用性](./md/01.Introduction/01/01.Edgeandcloud.md) + - [Guidance-ai与Phi的使用](./md/01.Introduction/01/01.Guidance.md) - [GitHub Marketplace模型](https://github.com/marketplace/models) - [Azure AI模型目录](https://ai.azure.com) -- 在不同环境中推理Phi - - [Hugging face](./md/01.Introduction/02/01.HF.md) - - [GitHub模型](./md/01.Introduction/02/02.GitHubModel.md) - - [Azure AI Foundry模型目录](./md/01.Introduction/02/03.AzureAIFoundry.md) - - [Ollama](./md/01.Introduction/02/04.Ollama.md) - - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) - - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) +- 不同环境中的Phi推理 + - [Hugging face](./md/01.Introduction/02/01.HF.md) + - [GitHub模型](./md/01.Introduction/02/02.GitHubModel.md) + - [Azure AI Foundry模型目录](./md/01.Introduction/02/03.AzureAIFoundry.md) + - [Ollama](./md/01.Introduction/02/04.Ollama.md) + - [AI Toolkit VSCode (AITK)](./md/01.Introduction/02/05.AITK.md) + - [NVIDIA NIM](./md/01.Introduction/02/06.NVIDIA.md) - Phi家族推理 - - [在iOS中推理Phi](./md/01.Introduction/03/iOS_Inference.md) - - [在Android中推理Phi](./md/01.Introduction/03/Android_Inference.md) - - [在Jetson中推理Phi](./md/01.Introduction/03/Jetson_Inference.md) - - [在AI PC中推理Phi](./md/01.Introduction/03/AIPC_Inference.md) - - [使用Apple MLX框架推理Phi](./md/01.Introduction/03/MLX_Inference.md) - - [在本地服务器中推理Phi](./md/01.Introduction/03/Local_Server_Inference.md) - - [使用AI工具包在远程服务器中推理Phi](./md/01.Introduction/03/Remote_Interence.md) - - [使用Rust推理Phi](./md/01.Introduction/03/Rust_Inference.md) - - [在本地推理Phi--Vision](./md/01.Introduction/03/Vision_Inference.md) - - [使用Kaito AKS和Azure容器(官方支持)推理Phi](./md/01.Introduction/03/Kaito_Inference.md) + - [iOS上的Phi推理](./md/01.Introduction/03/iOS_Inference.md) + - [Android上的Phi推理](./md/01.Introduction/03/Android_Inference.md) + - [Jetson上的Phi推理](./md/01.Introduction/03/Jetson_Inference.md) + - [AI PC上的Phi推理](./md/01.Introduction/03/AIPC_Inference.md) + - [使用Apple MLX框架进行Phi推理](./md/01.Introduction/03/MLX_Inference.md) + - [本地服务器上的Phi推理](./md/01.Introduction/03/Local_Server_Inference.md) + - [使用AI Toolkit在远程服务器上进行Phi推理](./md/01.Introduction/03/Remote_Interence.md) + - [使用Rust进行Phi推理](./md/01.Introduction/03/Rust_Inference.md) + - [本地Phi视觉推理](./md/01.Introduction/03/Vision_Inference.md) + - [使用Kaito AKS和Azure容器(官方支持)进行Phi推理](./md/01.Introduction/03/Kaito_Inference.md) - [Phi家族量化](./md/01.Introduction/04/QuantifyingPhi.md) - - [使用llama.cpp量化Phi-3.5 / 4](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) - - [使用onnxruntime的生成式AI扩展量化Phi-3.5 / 4](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) - - [使用Intel OpenVINO量化Phi-3.5 / 4](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) - - [使用Apple MLX框架量化Phi-3.5 / 4](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) - -- 评估Phi -- [负责任的AI](./md/01.Introduction/05/ResponsibleAI.md) - - [用于评估的Azure AI Foundry](./md/01.Introduction/05/AIFoundry.md) - - [使用Promptflow进行评估](./md/01.Introduction/05/Promptflow.md) + - [使用llama.cpp对Phi-3.5 / 4进行量化](./md/01.Introduction/04/UsingLlamacppQuantifyingPhi.md) + - [使用onnxruntime的生成式AI扩展对Phi-3.5 / 4进行量化](./md/01.Introduction/04/UsingORTGenAIQuantifyingPhi.md) + - [使用Intel OpenVINO对Phi-3.5 / 4进行量化](./md/01.Introduction/04/UsingIntelOpenVINOQuantifyingPhi.md) + - [使用Apple MLX框架对Phi-3.5 / 4进行量化](./md/01.Introduction/04/UsingAppleMLXQuantifyingPhi.md) + +- Phi评估 +- [Response AI](./md/01.Introduction/05/ResponsibleAI.md) + - [用于评估的 Azure AI Foundry](./md/01.Introduction/05/AIFoundry.md) + - [使用 Promptflow 进行评估](./md/01.Introduction/05/Promptflow.md) -- 使用Azure AI Search的RAG - - [如何使用Phi-4-mini和Phi-4-multimodal(RAG)结合Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) +- 结合 Azure AI Search 的 RAG + - [如何使用 Phi-4-mini 和 Phi-4-multimodal(RAG) 配合 Azure AI Search](https://github.com/microsoft/PhiCookBook/blob/main/code/06.E2E/E2E_Phi-4-RAG-Azure-AI-Search.ipynb) -- Phi应用开发样例 +- Phi 应用开发示例 - 文本与聊天应用 + - Phi-4 示例 🆕 + - [📓] [使用 Phi-4-mini ONNX 模型聊天](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) + - [使用 Phi-4 本地 ONNX 模型的聊天 .NET 应用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) + - [使用语义内核的 Phi-4 ONNX 聊天 .NET 控制台应用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - Phi-3 / 3.5 示例 + - [使用 Phi3、ONNX Runtime Web 和 WebGPU 在浏览器中本地聊天机器人](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) + - [OpenVino 聊天](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) + - [多模型 - 交互式 Phi-3-mini 和 OpenAI Whisper](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) + - [MLFlow - 构建包装器并使用 Phi-3 与 MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) + - [模型优化 - 如何使用 Olive 优化 Phi-3-mini 模型以适配 ONNX Runtime Web](https://github.com/microsoft/Olive/tree/main/examples/phi3) + - [使用 Phi-3 mini-4k-instruct-onnx 的 WinUI3 应用](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) + - [WinUI3 多模型 AI 驱动笔记应用示例](https://github.com/microsoft/ai-powered-notes-winui3-sample) + - [使用 Prompt flow 微调并集成自定义 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) + - [在 Azure AI Foundry 中使用 Prompt flow 微调并集成自定义 Phi-3 模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) + - [在 Azure AI Foundry 中评估微调后的 Phi-3 / Phi-3.5 模型,聚焦微软的 Responsible AI 原则](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) + - [📓] [Phi-3.5-mini-instruct 语言预测示例(中英)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) + - [Phi-3.5-Instruct WebGPU RAG 聊天机器人](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) + - [使用 Windows GPU 创建基于 Phi-3.5-Instruct ONNX 的 Prompt flow 解决方案](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) + - [使用 Microsoft Phi-3.5 tflite 创建 Android 应用](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) + - [使用本地 ONNX Phi-3 模型和 Microsoft.ML.OnnxRuntime 的问答 .NET 示例](../../md/04.HOL/dotnet/src/LabsPhi301) + - [使用语义内核和 Phi-3 的控制台聊天 .NET 应用](../../md/04.HOL/dotnet/src/LabsPhi302) + + - 基于 Azure AI 推理 SDK 的代码示例 + - Phi-4 示例 🆕 + - [📓] [使用 Phi-4-multimodal 生成项目代码](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) + - Phi-3 / 3.5 示例 + - [使用 Microsoft Phi-3 家族构建你自己的 Visual Studio Code GitHub Copilot 聊天](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) + - [使用 GitHub 模型创建你的 Visual Studio Code Chat Copilot Agent(Phi-3.5)](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + + - 高级推理示例 + - Phi-4 示例 🆕 + - [📓] [Phi-4-mini 推理或 Phi-4 推理示例](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) + - [📓] [使用 Microsoft Olive 微调 Phi-4-mini 推理模型](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/olive_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [使用 Apple MLX 微调 Phi-4-mini 推理模型](../../md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/mlx_ft_phi_4_reasoning_with_medicaldata.ipynb) + - [📓] [使用 GitHub 模型的 Phi-4-mini 推理](../../md/02.Application/02.Code/Phi4r/github_models_inference.ipynb) +- [📓] [Phi-4-mini 在 Azure AI Foundry 模型中的推理](../../md/02.Application/02.Code/Phi4r/azure_models_inference.ipynb) + - 演示 + - [Phi-4-mini 演示托管于 Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) + - [Phi-4 多模态演示托管于 Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) + - 视觉样例 - Phi-4 样例 🆕 - - [📓] [使用Phi-4-mini ONNX模型进行聊天](./md/02.Application/01.TextAndChat/Phi4/ChatWithPhi4ONNX/README.md) - - [使用Phi-4本地ONNX模型的.NET聊天](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-01OnnxRuntime) - - [使用Phi-4 ONNX和语义内核的.NET控制台聊天应用](../../md/04.HOL/dotnet/src/LabsPhi4-Chat-02SK) + - [📓] [使用 Phi-4 多模态读取图像并生成代码](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - Phi-3 / 3.5 样例 - - [使用Phi3、ONNX Runtime Web和WebGPU在浏览器中运行本地聊天机器人](https://github.com/microsoft/onnxruntime-inference-examples/tree/main/js/chat) - - [OpenVino聊天](./md/02.Application/01.TextAndChat/Phi3/E2E_OpenVino_Chat.md) - - [多模型 - Phi-3-mini与OpenAI Whisper交互](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-mini_with_whisper.md) - - [MLFlow - 构建封装并使用Phi-3与MLFlow](./md//02.Application/01.TextAndChat/Phi3/E2E_Phi-3-MLflow.md) - - [模型优化 - 如何使用Olive优化Phi-3-mini模型以适配ONNX Runtime Web](https://github.com/microsoft/Olive/tree/main/examples/phi3) - - [WinUI3应用与Phi-3 mini-4k-instruct-onnx](https://github.com/microsoft/Phi3-Chat-WinUI3-Sample/) - - [WinUI3多模型AI驱动的笔记应用样例](https://github.com/microsoft/ai-powered-notes-winui3-sample) - - [使用Prompt flow微调并集成自定义Phi-3模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration.md) - - [在Azure AI Foundry中使用Prompt flow微调并集成自定义Phi-3模型](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-FineTuning_PromptFlow_Integration_AIFoundry.md) - - [在Azure AI Foundry中评估微调后的Phi-3 / Phi-3.5模型,重点关注微软的负责任AI原则](./md/02.Application/01.TextAndChat/Phi3/E2E_Phi-3-Evaluation_AIFoundry.md) - - [📓] [Phi-3.5-mini-instruct语言预测样例(中文/英文)](../../md/02.Application/01.TextAndChat/Phi3/phi3-instruct-demo.ipynb) - - [Phi-3.5-Instruct WebGPU RAG聊天机器人](./md/02.Application/01.TextAndChat/Phi3/WebGPUWithPhi35Readme.md) - - [使用Windows GPU创建Prompt flow解决方案并结合Phi-3.5-Instruct ONNX](./md/02.Application/01.TextAndChat/Phi3/UsingPromptFlowWithONNX.md) - - [使用Microsoft Phi-3.5 tflite创建安卓应用](./md/02.Application/01.TextAndChat/Phi3/UsingPhi35TFLiteCreateAndroidApp.md) - - [使用Microsoft.ML.OnnxRuntime结合本地ONNX Phi-3模型的问答.NET样例](../../md/04.HOL/dotnet/src/LabsPhi301) - - [结合语义内核和Phi-3的.NET控制台聊天应用](../../md/04.HOL/dotnet/src/LabsPhi302) - - - 基于Azure AI推理SDK的代码样例 + - [📓][Phi-3 视觉-图像文本转文本](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [Phi-3 视觉-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) + - [📓][Phi-3 视觉 CLIP 嵌入](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) + - [演示:Phi-3 回收](https://github.com/jennifermarsman/PhiRecycling/) + - [Phi-3 视觉 - 视觉语言助手 - 结合 Phi3-Vision 和 OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) + - [Phi-3 视觉 Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) + - [Phi-3 视觉 OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) + - [📓][Phi-3.5 视觉多帧或多图像样例](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) + - [Phi-3 视觉本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi303) + - [基于菜单的 Phi-3 视觉本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET](../../md/04.HOL/dotnet/src/LabsPhi304) + + - 音频样例 - Phi-4 样例 🆕 - - [📓] [使用Phi-4-multimodal生成项目代码](./md/02.Application/02.Code/Phi4/GenProjectCode/README.md) - - Phi-3 / 3.5 样例 - - [使用Microsoft Phi-3系列构建自己的Visual Studio Code GitHub Copilot聊天扩展](./md/02.Application/02.Code/Phi3/VSCodeExt/README.md) - - [使用Phi-3.5结合GitHub模型创建自己的Visual Studio Code聊天助手](/md/02.Application/02.Code/Phi3/CreateVSCodeChatAgentWithGitHubModels.md) + - [📓] [使用 Phi-4 多模态提取音频转录文本](./md/02.Application/05.Audio/Phi4/Transciption/README.md) + - [📓] [Phi-4 多模态音频样例](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) + - [📓] [Phi-4 多模态语音翻译样例](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) + - [.NET 控制台应用,使用 Phi-4 多模态音频分析音频文件并生成转录文本](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - - 高级推理样例 + - MOE 样例 + - Phi-3 / 3.5 样例 + - [📓] [Phi-3.5 专家混合模型 (MoEs) 社交媒体样例](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) + - [📓] [使用 NVIDIA NIM Phi-3 MOE、Azure AI Search 和 LlamaIndex 构建检索增强生成 (RAG) 流水线](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) + - 函数调用样例 - Phi-4 样例 🆕 - - [📓] [Phi-4-mini推理样例](./md/02.Application/03.AdvancedReasoning/Phi4/AdvancedResoningPhi4mini/README.md) - - - 演示 - - [Phi-4-mini演示托管于Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-mini?WT.mc_id=aiml-137032-kinfeylo) - - [Phi-4-multimodal演示托管于Hugging Face Spaces](https://huggingface.co/spaces/microsoft/phi-4-multimodal?WT.mc_id=aiml-137032-kinfeylo) - - 视觉样例 + - [📓] [使用 Phi-4-mini 的函数调用](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) + - [📓] [使用函数调用创建多智能体,基于 Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) + - [📓] [使用函数调用与 Ollama 集成](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) + - 多模态混合样例 - Phi-4 样例 🆕 - - [📓] [使用Phi-4-multimodal读取图像并生成代码](./md/02.Application/04.Vision/Phi4/CreateFrontend/README.md) - - Phi-3 / 3.5 样例 -- [📓][Phi-3-vision-Image text to text](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [Phi-3-vision-ONNX](https://onnxruntime.ai/docs/genai/tutorials/phi3-v.html) - - [📓][Phi-3-vision CLIP Embedding](../../md/02.Application/04.Vision/Phi3/E2E_Phi-3-vision-image-text-to-text-online-endpoint.ipynb) - - [DEMO: Phi-3 Recycling](https://github.com/jennifermarsman/PhiRecycling/) - - [Phi-3-vision - 视觉语言助手 - 使用 Phi3-Vision 和 OpenVINO](https://docs.openvino.ai/nightly/notebooks/phi-3-vision-with-output.html) - - [Phi-3 Vision Nvidia NIM](./md/02.Application/04.Vision/Phi3/E2E_Nvidia_NIM_Vision.md) - - [Phi-3 Vision OpenVino](./md/02.Application/04.Vision/Phi3/E2E_OpenVino_Phi3Vision.md) - - [📓][Phi-3.5 Vision 多帧或多图像示例](../../md/02.Application/04.Vision/Phi3/phi3-vision-demo.ipynb) - - [Phi-3 Vision 使用 Microsoft.ML.OnnxRuntime .NET 的本地 ONNX 模型](../../md/04.HOL/dotnet/src/LabsPhi303) - - [基于菜单的 Phi-3 Vision 使用 Microsoft.ML.OnnxRuntime .NET 的本地 ONNX 模型](../../md/04.HOL/dotnet/src/LabsPhi304) - -- 音频样例 - - Phi-4 样例 🆕 - - [📓] [使用 Phi-4-multimodal 提取音频转录](./md/02.Application/05.Audio/Phi4/Transciption/README.md) - - [📓] [Phi-4-multimodal 音频样例](../../md/02.Application/05.Audio/Phi4/Siri/demo.ipynb) - - [📓] [Phi-4-multimodal 语音翻译样例](../../md/02.Application/05.Audio/Phi4/Translate/demo.ipynb) - - [.NET 控制台应用程序使用 Phi-4-multimodal 分析音频文件并生成转录](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-02Audio) - -- MOE 样例 - - Phi-3 / 3.5 样例 - - [📓] [Phi-3.5 Mixture of Experts Models (MoEs) 社交媒体样例](../../md/02.Application/06.MoE/Phi3/phi3_moe_demo.ipynb) - - [📓] [使用 NVIDIA NIM Phi-3 MOE、Azure AI Search 和 LlamaIndex 构建检索增强生成 (RAG) 管道](../../md/02.Application/06.MoE/Phi3/azure-ai-search-nvidia-rag.ipynb) - -- 函数调用样例 - - Phi-4 样例 🆕 - - [📓] [使用 Phi-4-mini 进行函数调用](./md/02.Application/07.FunctionCalling/Phi4/FunctionCallingBasic/README.md) - - [📓] [使用函数调用创建多代理,使用 Phi-4-mini](../../md/02.Application/07.FunctionCalling/Phi4/Multiagents/Phi_4_mini_multiagent.ipynb) - - [📓] [使用 Ollama 进行函数调用](../../md/02.Application/07.FunctionCalling/Phi4/Ollama/ollama_functioncalling.ipynb) - -- 多模态混合样例 - - Phi-4 样例 🆕 - - [📓] [作为技术记者使用 Phi-4-multimodal](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) - - [.NET 控制台应用程序使用 Phi-4-multimodal 分析图像](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) - -- Phi 样例微调 - - [微调场景](./md/03.FineTuning/FineTuning_Scenarios.md) - - [微调与 RAG](./md/03.FineTuning/FineTuning_vs_RAG.md) - - [微调让 Phi-3 成为行业专家](./md/03.FineTuning/LetPhi3gotoIndustriy.md) - - [使用 AI 工具包为 VS Code 微调 Phi-3](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) - - [使用 Azure 机器学习服务微调 Phi-3](./md/03.FineTuning/Introduce_AzureML.md) - - [使用 Lora 微调 Phi-3](./md/03.FineTuning/FineTuning_Lora.md) - - [使用 QLora 微调 Phi-3](./md/03.FineTuning/FineTuning_Qlora.md) - - [使用 Azure AI Foundry 微调 Phi-3](./md/03.FineTuning/FineTuning_AIFoundry.md) - - [使用 Azure ML CLI/SDK 微调 Phi-3](./md/03.FineTuning/FineTuning_MLSDK.md) -- [使用 Microsoft Olive 进行微调](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) - - [Microsoft Olive 微调实践实验](./md/03.FineTuning/olive-lab/readme.md) + - [📓] [使用 Phi-4 多模态作为科技记者](../../md/02.Application/08.Multimodel/Phi4/TechJournalist/phi_4_mm_audio_text_publish_news.ipynb) + - [.NET 控制台应用,使用 Phi-4 多模态分析图像](../../md/04.HOL/dotnet/src/LabsPhi4-MultiModal-01Images) + +- Phi 微调样例 + - [微调场景](./md/03.FineTuning/FineTuning_Scenarios.md) + - [微调与 RAG 的区别](./md/03.FineTuning/FineTuning_vs_RAG.md) + - [微调让 Phi-3 成为行业专家](./md/03.FineTuning/LetPhi3gotoIndustriy.md) + - [使用 AI Toolkit for VS Code 微调 Phi-3](./md/03.FineTuning/Finetuning_VSCodeaitoolkit.md) + - [使用 Azure 机器学习服务微调 Phi-3](./md/03.FineTuning/Introduce_AzureML.md) +- [使用 Lora 微调 Phi-3](./md/03.FineTuning/FineTuning_Lora.md) + - [使用 QLora 微调 Phi-3](./md/03.FineTuning/FineTuning_Qlora.md) + - [使用 Azure AI Foundry 微调 Phi-3](./md/03.FineTuning/FineTuning_AIFoundry.md) + - [使用 Azure ML CLI/SDK 微调 Phi-3](./md/03.FineTuning/FineTuning_MLSDK.md) + - [使用 Microsoft Olive 微调](./md/03.FineTuning/FineTuning_MicrosoftOlive.md) + - [Microsoft Olive 实操实验室微调](./md/03.FineTuning/olive-lab/readme.md) - [使用 Weights and Bias 微调 Phi-3-vision](./md/03.FineTuning/FineTuning_Phi-3-visionWandB.md) - [使用 Apple MLX 框架微调 Phi-3](./md/03.FineTuning/FineTuning_MLX.md) - - [微调 Phi-3-vision(官方支持)](./md/03.FineTuning/FineTuning_Vision.md) - - [使用 Kaito AKS 和 Azure Containers 微调 Phi-3(官方支持)](./md/03.FineTuning/FineTuning_Kaito.md) - - [微调 Phi-3 和 3.5 Vision](https://github.com/2U1/Phi3-Vision-Finetune) + - [Phi-3-vision 微调(官方支持)](./md/03.FineTuning/FineTuning_Vision.md) + - [使用 Kaito AKS、Azure 容器微调 Phi-3(官方支持)](./md/03.FineTuning/FineTuning_Kaito.md) + - [Phi-3 与 3.5 Vision 微调](https://github.com/2U1/Phi3-Vision-Finetune) -- 实践实验 - - [探索前沿模型:LLM、SLM、本地开发等](https://github.com/microsoft/aitour-exploring-cutting-edge-models) - - [解锁 NLP 潜力:使用 Microsoft Olive 进行微调](https://github.com/azure/Ignite_FineTuning_workshop) +- 实操实验室 + - [探索前沿模型:LLMs、SLMs、本地开发等](https://github.com/microsoft/aitour-exploring-cutting-edge-models) + - [释放 NLP 潜力:使用 Microsoft Olive 微调](https://github.com/azure/Ignite_FineTuning_workshop) -- 学术研究论文和出版物 - - [教科书是你唯一需要的 II:phi-1.5 技术报告](https://arxiv.org/abs/2309.05463) - - [Phi-3 技术报告:在手机本地运行的高能力语言模型](https://arxiv.org/abs/2404.14219) +- 学术研究论文与出版物 + - [Textbooks Are All You Need II:phi-1.5 技术报告](https://arxiv.org/abs/2309.05463) + - [Phi-3 技术报告:在手机上本地运行的高性能语言模型](https://arxiv.org/abs/2404.14219) - [Phi-4 技术报告](https://arxiv.org/abs/2412.08905) - - [Phi-4-Mini 技术报告:通过 Mixture-of-LoRAs 实现紧凑但强大的多模态语言模型](https://arxiv.org/abs/2503.01743) - - [优化小型语言模型用于车载功能调用](https://arxiv.org/abs/2501.02342) - - [(WhyPHI) 微调 PHI-3 以回答多项选择题:方法、结果与挑战](https://arxiv.org/abs/2501.01588) + - [Phi-4-Mini 技术报告:通过 LoRAs 混合实现紧凑而强大的多模态语言模型](https://arxiv.org/abs/2503.01743) + - [优化车载小型语言模型的功能调用](https://arxiv.org/abs/2501.02342) + - [(WhyPHI) PHI-3 多项选择题微调:方法、结果与挑战](https://arxiv.org/abs/2501.01588) + - [Phi-4 推理技术报告](https://www.microsoft.com/en-us/research/wp-content/uploads/2025/04/phi_4_reasoning.pdf) + - [Phi-4-mini 推理技术报告](https://huggingface.co/microsoft/Phi-4-mini-reasoning/blob/main/Phi-4-Mini-Reasoning.pdf) ## 使用 Phi 模型 -### 在 Azure AI Foundry 上使用 Phi +### Azure AI Foundry 上的 Phi -您可以学习如何使用 Microsoft Phi,并在不同的硬件设备上构建端到端解决方案。要亲自体验 Phi,可以通过 [Azure AI Foundry Azure AI 模型目录](https://aka.ms/phi3-azure-ai) 开始试用模型并根据您的场景自定义 Phi。您还可以通过 [Azure AI Foundry 快速入门](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) 获取更多信息。 +你可以学习如何使用 Microsoft Phi 以及如何在不同硬件设备上构建端到端解决方案。想亲自体验 Phi,可以先通过 [Azure AI Foundry Azure AI 模型目录](https://aka.ms/phi3-azure-ai) 玩转模型并根据你的场景定制 Phi,更多信息请参见快速入门指南 [Azure AI Foundry](/md/02.QuickStart/AzureAIFoundry_QuickStart.md) -**Playground** -每个模型都有专属的 Playground 用于测试模型:[Azure AI Playground](https://aka.ms/try-phi3)。 +**演示环境** +每个模型都有专属的演示环境用于测试模型,[Azure AI Playground](https://aka.ms/try-phi3)。 -### 在 GitHub 模型上使用 Phi +### GitHub 模型上的 Phi -您可以学习如何使用 Microsoft Phi,并在不同的硬件设备上构建端到端解决方案。要亲自体验 Phi,可以通过 [GitHub 模型目录](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) 开始试用模型并根据您的场景自定义 Phi。您还可以通过 [GitHub 模型目录快速入门](/md/02.QuickStart/GitHubModel_QuickStart.md) 获取更多信息。 +你可以学习如何使用 Microsoft Phi 以及如何在不同硬件设备上构建端到端解决方案。想亲自体验 Phi,可以先通过 [GitHub 模型目录](https://github.com/marketplace/models?WT.mc_id=aiml-137032-kinfeylo) 玩转模型并根据你的场景定制 Phi,更多信息请参见快速入门指南 [GitHub 模型目录](/md/02.QuickStart/GitHubModel_QuickStart.md) -**Playground** -每个模型都有专属的 [Playground 用于测试模型](/md/02.QuickStart/GitHubModel_QuickStart.md)。 +**演示环境** +每个模型都有专属的[演示环境用于测试模型](/md/02.QuickStart/GitHubModel_QuickStart.md)。 -### 在 Hugging Face 上使用 Phi +### Hugging Face 上的 Phi -您也可以在 [Hugging Face](https://huggingface.co/microsoft) 上找到该模型。 +你也可以在 [Hugging Face](https://huggingface.co/microsoft) 找到该模型。 -**Playground** -[Hugging Chat Playground](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) +**演示环境** +[Hugging Chat 演示环境](https://huggingface.co/chat/models/microsoft/Phi-3-mini-4k-instruct) ## 负责任的 AI -Microsoft 致力于帮助客户负责任地使用我们的 AI 产品,分享我们的经验,并通过工具(如透明性说明和影响评估)建立基于信任的合作伙伴关系。这些资源中的许多可以在 [https://aka.ms/RAI](https://aka.ms/RAI) 找到。 -Microsoft 的负责任 AI 方法基于我们的 AI 原则:公平性、可靠性和安全性、隐私和安全性、包容性、透明性和问责制。 +微软致力于帮助客户负责任地使用我们的 AI 产品,分享我们的经验,并通过透明说明和影响评估等工具建立基于信任的合作关系。许多相关资源可在 [https://aka.ms/RAI](https://aka.ms/RAI) 找到。 +微软的负责任 AI 方法基于我们的 AI 原则:公平性、可靠性与安全性、隐私与安全、包容性、透明度和问责制。 +大型自然语言、图像和语音模型——如本示例中使用的模型——可能会表现出不公平、不可靠或冒犯性的行为,从而造成伤害。请查阅[Azure OpenAI 服务透明度说明](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text)以了解相关风险和限制。 -大规模的自然语言、图像和语音模型(如本示例中使用的模型)可能会以不公平、不可靠或冒犯的方式表现,从而造成伤害。请查阅 [Azure OpenAI 服务透明性说明](https://learn.microsoft.com/legal/cognitive-services/openai/transparency-note?tabs=text) 了解相关风险和限制。 +缓解这些风险的推荐方法是在架构中包含一个安全系统,能够检测并防止有害行为。[Azure AI 内容安全](https://learn.microsoft.com/azure/ai-services/content-safety/overview)提供了一个独立的保护层,能够检测应用和服务中的用户生成和 AI 生成的有害内容。Azure AI 内容安全包括文本和图像 API,允许你检测有害材料。在 Azure AI Foundry 中,内容安全服务使你能够查看、探索并试用跨不同模态检测有害内容的示例代码。以下[快速入门文档](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest)将指导你如何向该服务发送请求。 -推荐的风险缓解方法是在您的架构中包含一个安全系统,以检测和防止有害行为。[Azure AI 内容安全](https://learn.microsoft.com/azure/ai-services/content-safety/overview) 提供了一个独立的保护层,能够检测应用程序和服务中的用户生成和 AI 生成的有害内容。Azure AI 内容安全包括文本和图像 API,允许您检测有害内容。在 Azure AI Foundry 中,内容安全服务允许您查看、探索和试用检测不同模态有害内容的示例代码。以下 [快速入门文档](https://learn.microsoft.com/azure/ai-services/content-safety/quickstart-text?tabs=visual-studio%2Clinux&pivots=programming-language-rest) 指导您如何向该服务发送请求。 +另一个需要考虑的方面是整体应用性能。对于多模态和多模型应用,我们认为性能意味着系统能够按照你和用户的预期运行,包括不生成有害输出。评估整体应用性能时,使用[性能与质量以及风险与安全评估器](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in)非常重要。你也可以使用[自定义评估器](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)进行创建和评估。 -另一个需要考虑的方面是整体应用程序性能。在多模态和多模型应用程序中,我们认为性能意味着系统按照您和您的用户的预期运行,包括不生成有害输出。评估整体应用程序性能的重要性可以通过使用 [性能与质量以及风险与安全评估器](https://learn.microsoft.com/azure/ai-studio/concepts/evaluation-metrics-built-in) 来实现。您还可以创建和评估 [自定义评估器](https://learn.microsoft.com/azure/ai-studio/how-to/develop/evaluate-sdk#custom-evaluators)。 -您可以在开发环境中使用 [Azure AI Evaluation SDK](https://microsoft.github.io/promptflow/index.html) 来评估您的 AI 应用程序。无论是给定测试数据集还是目标,您的生成式 AI 应用程序的生成结果都可以通过内置评估器或您选择的自定义评估器进行定量测量。要开始使用 Azure AI Evaluation SDK 评估您的系统,可以参考[快速入门指南](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)。执行评估运行后,您可以在 [Azure AI Foundry](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results) 中可视化结果。 +你可以在开发环境中使用[Azure AI 评估 SDK](https://microsoft.github.io/promptflow/index.html)对 AI 应用进行评估。给定测试数据集或目标,你的生成式 AI 应用的生成结果可以通过内置评估器或你选择的自定义评估器进行量化测量。要开始使用 Azure AI 评估 SDK 来评估系统,可以参考[快速入门指南](https://learn.microsoft.com/azure/ai-studio/how-to/develop/flow-evaluate-sdk)。执行评估运行后,你可以在[Azure AI Foundry 中可视化结果](https://learn.microsoft.com/azure/ai-studio/how-to/evaluate-flow-results)。 ## 商标 -此项目可能包含项目、产品或服务的商标或标识。经授权使用 Microsoft 商标或标识必须遵守并符合 [Microsoft 商标和品牌指南](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)。在修改版本中使用 Microsoft 商标或标识不得引起混淆或暗示 Microsoft 赞助。任何使用第三方商标或标识的行为必须遵守这些第三方的政策。 +本项目可能包含项目、产品或服务的商标或标识。微软商标或标识的授权使用须遵守并符合[微软商标与品牌指南](https://www.microsoft.com/legal/intellectualproperty/trademarks/usage/general)的规定。 +在本项目的修改版本中使用微软商标或标识时,不得引起混淆或暗示微软的赞助。 +任何第三方商标或标识的使用均须遵守相应第三方的政策。 **免责声明**: -本文档使用AI翻译服务[Co-op Translator](https://github.com/Azure/co-op-translator)进行翻译。虽然我们尽力确保准确性,但请注意,自动翻译可能包含错误或不准确之处。应以原始语言的文档作为权威来源。对于关键信息,建议寻求专业人工翻译。我们不对因使用此翻译而产生的任何误解或误读承担责任。 \ No newline at end of file +本文件由 AI 翻译服务 [Co-op Translator](https://github.com/Azure/co-op-translator) 翻译而成。尽管我们力求准确,但请注意,自动翻译可能包含错误或不准确之处。原始文件的母语版本应被视为权威来源。对于重要信息,建议使用专业人工翻译。因使用本翻译而产生的任何误解或误释,我们不承担任何责任。 \ No newline at end of file