Condividi tramite


Esercitazione: usare la comprensione dei contenuti di Azure in Foundry Tools in una soluzione di RPA (automazione dei processi robotici)

L'automazione dei processi robotici consente alle organizzazioni di automatizzare le attività ripetitive orchestrando i flussi di lavoro tra sistemi. In combinazione con Azure Content Understanding, RPA può gestire scenari di inserimento di contenuti complessi tra documenti, immagini, audio e video.

Molte soluzioni RPA mirano all'elaborazione diretta (STP): automatizzare i flussi di lavoro end-to-end con un intervento umano minimo. I punteggi di attendibilità e le informazioni di base consentono di supportare STP migliorando la qualità e il controllo delle decisioni.

Che cos'è RPA?

RPA automatizza le attività ripetitive che in genere richiedono operazioni manuali, ad esempio l'immissione di dati, l'elaborazione dei documenti e l'integrazione del sistema.

Esempio: Automazione dell'elaborazione delle fatture: estrazione di campi dalle fatture, convalida dei totali e aggiornamento di sistemi ERP (Enterprise Resource Planning) senza intervento manuale.

Componenti di una soluzione RPA

Una pipeline RPA efficace per l'elaborazione del contenuto include in genere:

  1. Separazione
    Suddividere file di grandi dimensioni(ad esempio PDF con più fatture) in singoli documenti.

  2. Classificazione
    Identificare i tipi di documento (fattura, contratto, ricevuta) per il routing agli analizzatori appropriati.

  3. Estrazione di campi con confidenza e grounding
    Estrarre dati strutturati, ad esempio il numero di fattura, la data e l'importo totale.
    Principali output includono:

    • Campi estratti (ad esempio, InvoiceNumber, Date, TotalAmount)
    • Punteggi di attendibilità per ogni campo, abilitando il processo decisionale automatizzato
  • Grounding delle informazioni: dove è stato identificato il campo nell'origine (numero di pagina, riquadro delimitatore del testo o frammento/citazione di testo). Questo è fondamentale per la verificabilità e la revisione umana.
  1. Post-elaborazione e convalida
    Applicare regole aziendali (ad esempio, i totali devono corrispondere agli elementi di riga, le date devono essere valide).

  2. Revisione umana e verifica
    Attivare la verifica quando i punteggi di attendibilità sono inferiori a una soglia o regole hanno esito negativo.

  3. Altri passaggi

    • Routing: indirizza i documenti a analizzatori o sistemi downstream.
    • Integrazione: eseguire il push dei dati convalidati in ERP, CRM o in altri sistemi aziendali.

Flusso architettonico

Flusso di lavoro di un tipico processo RPA.

Creazione della soluzione RPA con Content Understanding

Content Understanding offre flessibilità per definire l'intero flusso di lavoro all'interno di un singolo analizzatore. È possibile configurare la suddivisione, la classificazione, l'estrazione dei campi e i passaggi di convalida dei documenti in una sola chiamata. Questo flusso di lavoro può essere strutturato come un singolo livello o con più livelli, a seconda dei requisiti di automazione.

Classificazione ed estrazione a livello singolo

Un'attestazione assicurativa è un buon esempio di classificazione a livello singolo in cui ogni pacchetto di attestazione può essere costituito da un modulo di richiesta e da una o più stime.

Classificazione a più livelli

L'elaborazione fiscale richiede una classificazione più complessa, in cui è possibile iniziare al livello superiore classificando un documento come modulo fiscale o un record di spesa. Il livello successivo di classificazione classifica ulteriormente i documenti fiscali nel tipo specifico per migliorare l'accuratezza della classificazione.

Definire l'analizzatore

Per questo scenario verrà elaborato un file contenente un'attestazione assicurativa. Si prevedono quattro tipi di contenuto:

  • Modulo di richiesta: indirizzare all'analizzatore claimForm personalizzato.
  • Stime (riparazioni auto o danni a proprietà): indirizzare ogni stima all'analizzatore prebuilt-invoice .
  • Referti medici: indirizzare all'analizzatore medicalReport personalizzato.
  • Report di polizia: ignorare.

Poiché questo scenario è specifico del documento, iniziare derivando l'analizzatore dall'analizzatore prebuilt-document.

{
  "analyzerId": "insuranceClaim",
  "baseAnalyzerId": "prebuilt-document",
  "models": {
    "completion": "gpt-4.1",
    "embedding": "text-embedding-ada-002"
  },
  "config": {
    "enableSegment": true,
    "contentCategories": {
      "claimForm": {
        "description": "The claim form for Zava Insurance.",
        "analyzerId": "claimForm"
      },
      "estimate": {
        "description": "The body shop estimate or contractor estimate to fix the property damage.",
        "analyzerId": "prebuilt-invoice"
      },
      "medicalReport": {
        "description": "A doctor's assessment or medical report related to injury suffered.",
        "analyzerId": "medicalReport"
      },
      "policeReport": {
        "description": "A police or law enforcement report detailing the events that led to the loss."
        /* Don't perform analysis for this category. */
      }
    },
    "omitContent": true
  }
}

Annotazioni

La configurazione dell'analizzatore insuranceClaim illustra come indirizzare diversi segmenti di documento a analizzatori predefiniti o personalizzati. In questo esempio, gli claimForm analizzatori e medicalReport devono essere definiti separatamente prima dell'uso. È possibile fare riferimento agli analizzatori in base ai relativi analyzerId o definirli inline usando la analyzer proprietà per un controllo più granulare. Inoltre, è possibile scegliere di ignorare tipi di documento specifici (ad esempio policeReport in questo esempio) per ottimizzare i costi di elaborazione. Questo approccio flessibile consente di personalizzare i flussi di lavoro di classificazione, segmentazione ed estrazione in base ai requisiti aziendali.

Post-elaborazione, convalida e normalizzazione

Gli analizzatori supportano l'elaborazione successiva, ad esempio l'estrazione solo della parte numerica di un valore, la normalizzazione di una data in un formato specifico o la convalida che gli articoli di riga sommati corrispondano al subtotale. È possibile specificare questi comportamenti con istruzioni semplici nelle descrizioni dei campi.

Punteggi di attendibilità e grounding

L'attendibilità e il grounding (origine) vengono impostati a livello di campo. Per ogni campo che richiede attendibilità e grounding, impostare estimateSourceAndConfidence su true.

Attivazione della revisione umana in base ai punteggi di fiducia

Dopo aver estratto i campi e i relativi punteggi di attendibilità associati e informazioni di base, è possibile automatizzare la revisione umana impostando una soglia di attendibilità. Solo i campi con punteggi di attendibilità inferiori a questa soglia vengono contrassegnati per la convalida manuale. Questo approccio garantisce che vengano esaminati solo i dati incerti, migliorando l'accuratezza e la completezza dei dati, ottimizzando al massimo l'elaborazione diretta (STP).

Questo processo di revisione selettiva consente di mantenere tassi di automazione elevati e garantisce che solo le eccezioni critiche richiedano un intervento manuale.

Passaggi successivi