Del via


Lakehouse-selvstudium: Indfødning af data i lakehouse

I dette selvstudium indfødning du mere dimensionelle og fakta tabeller fra Wide World Importers (WWI) i lakehouse. Pipelines gør det muligt at indlæse data i stor skala med mulighed for at planlægge dataarbejdsgange.

Forudsætninger

Indtag data

I dette afsnit bruger du aktiviteten Kopier data fra Data Factory-pipelinen til at indlæse prøvedata fra en Azure-lagringskonto til Filer-sektionen i det lakehouse, du oprettede i den forrige tutorial.

  1. I det arbejdsområde, du oprettede i den forrige tutorial, vælger du Nyt element.

  2. Søg efter Pipeline i søgefeltet og vælg Pipeline-flisen.

  3. I dialogboksen Ny pipeline skal du angive navnet som IngestDataFromSourceToLakehouse og vælge Opret.

  4. Fra din nye pipelines Home-fane vælger du Pipeline-aktivitet>Kopier data.

    Skærmbillede, der viser, hvor du skal vælge Pipelineaktivitet og Kopiér data.

  5. Vælg den nye Kopier dataaktivitet fra lærredet. Aktivitetsegenskaber vises i et panel under lærredet, organiseret på faner som Generel, Kilde, Destination, Kortlægning og Indstillinger. Du skal måske udvide ruden opad ved at trække den øverste kant.

  6. På fanen Generel skal du indtaste Data Copy to Lakehouse i Navn-feltet . Lad de andre felter have deres standardværdier.

    Skærmbillede, der viser, hvor du kan tilføje navnet på kopiaktiviteten under fanen Generelt.

  7. På fanen Kilde skal du vælge Forbindelsesdropdown , og derefter vælge Gennemse alle.

  8. På siden Vælg en datakilde for at komme i gang , søg efter og vælg Azure-blobs.

  9. Indtast følgende detaljer på siden Connect datakilde . Vælg derefter Connect for at oprette forbindelsen til datakilden. I dette selvstudium er alle eksempeldata tilgængelige i en offentlig objektbeholder i Azure Blob Storage. Du opretter forbindelse til denne objektbeholder for at kopiere data fra den.

    Egenskab Værdi
    Kontonavn eller webadresse https://fabrictutorialdata.blob.core.windows.net/sampledata/
    Connection Opret ny forbindelse
    Forbindelsesnavn wwisampledata
    Godkendelsestype Anonym

    Skærmbillede, der viser, hvor du skal vælge Blob Storage-forbindelse.

  10. På fanen Kilde vælges den nyoprettede forbindelse som standard. Angiv følgende egenskaber, før du flytter til destinationsindstillingerne.

    Egenskab Værdi
    Connection wwisampledata
    Filstitype Filsti
    Filsti Containernavn (første tekstfelt): sampledata
    Mappenavn (anden tekstboks): WideWorldImportersDW/parket
    Rekursivt Kontrolleret
    Filformat Binary

    Skærmbillede, der viser forbindelsesindstillingerne for Blob Storage.

  11. På fanen Destination angiv følgende egenskaber:

    Egenskab Værdi
    Connection wwilakehouse (vælg dit søhus, hvis du navngav det anderledes)
    Rodmappen Files
    Filsti Mappenavn (første tekstfelt): wwi-raw-data
    Filformat Binary

    Skærmbillede af destinationsfanen, der viser, hvor du skal indtaste specifikke detaljer.

  12. Du har konfigureret aktiviteten Kopier data. Vælg ikonet Gem på det øverste bånd (under Hjem) for at gemme dine ændringer, og vælg Kør for at udføre din pipeline og dens aktivitet. Du kan også planlægge pipelines til at opdatere data med definerede intervaller for at opfylde dine forretningskrav. I dette selvstudium kører vi kun pipelinen én gang ved at vælge Kør.

  13. Denne handling udløser datakopiering fra den underliggende datakilde til det angivne søhus og kan tage op til et minut at fuldføre. Du kan overvåge udførelsen af pipelinen og dens aktivitet under fanen Output. Aktivitetsstatus ændres fraIgangværende>>Fuldført.

    Skærmbillede, der viser, hvor du skal vælge Gem og kør pipelinen.

    Tips

    Vælg Vis løbedetaljer for at se mere information om løbet.

  14. Når kopieringsaktiviteten er vellykket, skal du åbne dit søhus (wwilakehouse) for at se dataene. Opdater sektionen Filer for at se de indtagne data. Der vises en ny mappe wwi-raw-data i filsektionen, og data fra Azure Blob-tabeller kopieres dertil.

    Skærmbillede, der viser blob-data, der er kopieret til destinationssøhuset.

For at indlæse inkrementelle data i et lakehouse, se Incrementally load data from a data warehouse to a lakehouse.

Næste trin