Skip to content

Latest commit

 

History

History
220 lines (176 loc) · 20.4 KB

README.md

File metadata and controls

220 lines (176 loc) · 20.4 KB

Phi Cookbook: Praktiske Eksempler med Microsofts Phi Modeller

Åbn og brug eksemplerne i GitHub Codespaces Åbn i Dev Containers

GitHub bidragsydere GitHub issues GitHub pull-requests PRs Velkommen

GitHub følgere GitHub forks GitHub stjerner

Azure AI Community Discord

Phi er en serie af open source AI-modeller udviklet af Microsoft.

Phi er i øjeblikket den mest kraftfulde og omkostningseffektive lille sprogmodel (SLM) med fremragende resultater inden for flersprogede opgaver, ræsonnement, tekst-/chatgenerering, kodning, billeder, lyd og andre scenarier.

Du kan implementere Phi i skyen eller på edge-enheder, og du kan nemt bygge generative AI-applikationer med begrænset computerkraft.

Følg disse trin for at komme i gang med at bruge disse ressourcer:

  1. Fork repository: Klik GitHub forks
  2. Klon repository: git clone https://github.com/microsoft/PhiCookBook.git
  3. Deltag i Microsoft AI Discord Community og mød eksperter og andre udviklere

cover

Indholdsfortegnelse

Brug af Phi-modeller

Phi på Azure AI Foundry

Du kan lære, hvordan du bruger Microsoft Phi, og hvordan du bygger end-to-end-løsninger på dine forskellige hardwareenheder. For at prøve Phi selv kan du starte med at eksperimentere med modellerne og tilpasse Phi til dine scenarier ved hjælp af Azure AI Foundry Azure AI Model Catalog. Du kan lære mere ved at begynde med Azure AI Foundry.

Playground
Hver model har en dedikeret playground til at teste modellen Azure AI Playground.

Phi på GitHub-modeller

Du kan lære, hvordan du bruger Microsoft Phi, og hvordan du bygger end-to-end-løsninger på dine forskellige hardwareenheder. For at prøve Phi selv kan du starte med at eksperimentere med modellen og tilpasse Phi til dine scenarier ved hjælp af GitHub Model Catalog. Du kan lære mere ved at begynde med GitHub Model Catalog.

Playground Hver model har en dedikeret legeplads til at teste modellen.

Phi på Hugging Face

Du kan også finde modellen på Hugging Face

Legeplads
Hugging Chat legeplads

Ansvarlig AI

Microsoft er forpligtet til at hjælpe vores kunder med at bruge vores AI-produkter ansvarligt, dele vores erfaringer og opbygge tillidsbaserede partnerskaber gennem værktøjer som Transparency Notes og Impact Assessments. Mange af disse ressourcer kan findes på https://aka.ms/RAI.
Microsofts tilgang til ansvarlig AI er baseret på vores AI-principper om retfærdighed, pålidelighed og sikkerhed, privatliv og sikkerhed, inklusion, gennemsigtighed og ansvarlighed.

Store sprog-, billed- og tale-modeller – som dem, der bruges i dette eksempel – kan potentielt opføre sig på måder, der er uretfærdige, upålidelige eller stødende, hvilket kan forårsage skader. Konsulter venligst Azure OpenAI service Transparency note for at blive informeret om risici og begrænsninger.

Den anbefalede tilgang til at mindske disse risici er at inkludere et sikkerhedssystem i din arkitektur, der kan opdage og forhindre skadelig adfærd. Azure AI Content Safety tilbyder et uafhængigt lag af beskyttelse, der kan opdage skadeligt bruger- og AI-genereret indhold i applikationer og tjenester. Azure AI Content Safety inkluderer tekst- og billed-API'er, der gør det muligt at opdage skadeligt materiale. Inden for Azure AI Foundry giver Content Safety-tjenesten dig mulighed for at se, udforske og afprøve eksempler på kode til at opdage skadeligt indhold på tværs af forskellige modaliteter. Følgende quickstart-dokumentation guider dig igennem, hvordan du laver forespørgsler til tjenesten.

En anden faktor, der skal tages i betragtning, er den overordnede applikationsydelse. For multimodale og multi-model applikationer betyder ydeevne, at systemet fungerer som forventet af dig og dine brugere, herunder ikke at generere skadelige output. Det er vigtigt at vurdere ydeevnen af din samlede applikation ved hjælp af Performance and Quality og Risk and Safety evaluators. Du har også mulighed for at oprette og evaluere med custom evaluators.

Du kan evaluere din AI-applikation i dit udviklingsmiljø ved hjælp af Azure AI Evaluation SDK. Ved enten at bruge et testdatasæt eller et mål bliver dine generative AI-applikationers output kvantitativt målt med indbyggede eller brugerdefinerede evaluators efter eget valg. For at komme i gang med Azure AI Evaluation SDK til at evaluere dit system kan du følge quickstart-guiden. Når du har udført en evalueringskørsel, kan du visualisere resultaterne i Azure AI Foundry.

Varemærker

Dette projekt kan indeholde varemærker eller logoer for projekter, produkter eller tjenester. Autoriseret brug af Microsofts varemærker eller logoer er underlagt og skal følge Microsoft's Trademark & Brand Guidelines.
Brug af Microsofts varemærker eller logoer i modificerede versioner af dette projekt må ikke skabe forvirring eller antyde Microsoft-sponsorering. Enhver brug af tredjeparts varemærker eller logoer er underlagt de pågældende tredjeparts politikker.

Ansvarsfraskrivelse:
Dette dokument er blevet oversat ved hjælp af AI-baserede maskinoversættelsestjenester. Selvom vi bestræber os på at opnå nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os intet ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.