Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
L'automazione dei processi robotici consente alle organizzazioni di automatizzare le attività ripetitive orchestrando i flussi di lavoro tra sistemi. In combinazione con Azure Content Understanding, RPA può gestire scenari di inserimento di contenuti complessi tra documenti, immagini, audio e video.
Molte soluzioni RPA mirano all'elaborazione diretta (STP): automatizzare i flussi di lavoro end-to-end con un intervento umano minimo. I punteggi di attendibilità e le informazioni di base consentono di supportare STP migliorando la qualità e il controllo delle decisioni.
Che cos'è RPA?
RPA automatizza le attività ripetitive che in genere richiedono operazioni manuali, ad esempio l'immissione di dati, l'elaborazione dei documenti e l'integrazione del sistema.
Esempio: Automazione dell'elaborazione delle fatture: estrazione di campi dalle fatture, convalida dei totali e aggiornamento di sistemi ERP (Enterprise Resource Planning) senza intervento manuale.
Componenti di una soluzione RPA
Una pipeline RPA efficace per l'elaborazione del contenuto include in genere:
Separazione
Suddividere file di grandi dimensioni(ad esempio PDF con più fatture) in singoli documenti.Classificazione
Identificare i tipi di documento (fattura, contratto, ricevuta) per il routing agli analizzatori appropriati.Estrazione di campi con confidenza e grounding
Estrarre dati strutturati, ad esempio il numero di fattura, la data e l'importo totale.
Principali output includono:-
Campi estratti (ad esempio,
InvoiceNumber,Date,TotalAmount) - Punteggi di attendibilità per ogni campo, abilitando il processo decisionale automatizzato
-
Campi estratti (ad esempio,
- Grounding delle informazioni: dove è stato identificato il campo nell'origine (numero di pagina, riquadro delimitatore del testo o frammento/citazione di testo). Questo è fondamentale per la verificabilità e la revisione umana.
Post-elaborazione e convalida
Applicare regole aziendali (ad esempio, i totali devono corrispondere agli elementi di riga, le date devono essere valide).Revisione umana e verifica
Attivare la verifica quando i punteggi di attendibilità sono inferiori a una soglia o regole hanno esito negativo.Altri passaggi
- Routing: indirizza i documenti a analizzatori o sistemi downstream.
- Integrazione: eseguire il push dei dati convalidati in ERP, CRM o in altri sistemi aziendali.
Flusso architettonico
Creazione della soluzione RPA con Content Understanding
Content Understanding offre flessibilità per definire l'intero flusso di lavoro all'interno di un singolo analizzatore. È possibile configurare la suddivisione, la classificazione, l'estrazione dei campi e i passaggi di convalida dei documenti in una sola chiamata. Questo flusso di lavoro può essere strutturato come un singolo livello o con più livelli, a seconda dei requisiti di automazione.
Classificazione ed estrazione a livello singolo
Un'attestazione assicurativa è un buon esempio di classificazione a livello singolo in cui ogni pacchetto di attestazione può essere costituito da un modulo di richiesta e da una o più stime.
Classificazione a più livelli
L'elaborazione fiscale richiede una classificazione più complessa, in cui è possibile iniziare al livello superiore classificando un documento come modulo fiscale o un record di spesa. Il livello successivo di classificazione classifica ulteriormente i documenti fiscali nel tipo specifico per migliorare l'accuratezza della classificazione.
Definire l'analizzatore
Per questo scenario verrà elaborato un file contenente un'attestazione assicurativa. Si prevedono quattro tipi di contenuto:
- Modulo di richiesta: indirizzare all'analizzatore
claimFormpersonalizzato. - Stime (riparazioni auto o danni a proprietà): indirizzare ogni stima all'analizzatore
prebuilt-invoice. - Referti medici: indirizzare all'analizzatore
medicalReportpersonalizzato. - Report di polizia: ignorare.
Poiché questo scenario è specifico del documento, iniziare derivando l'analizzatore dall'analizzatore prebuilt-document.
{
"analyzerId": "insuranceClaim",
"baseAnalyzerId": "prebuilt-document",
"models": {
"completion": "gpt-4.1",
"embedding": "text-embedding-ada-002"
},
"config": {
"enableSegment": true,
"contentCategories": {
"claimForm": {
"description": "The claim form for Zava Insurance.",
"analyzerId": "claimForm"
},
"estimate": {
"description": "The body shop estimate or contractor estimate to fix the property damage.",
"analyzerId": "prebuilt-invoice"
},
"medicalReport": {
"description": "A doctor's assessment or medical report related to injury suffered.",
"analyzerId": "medicalReport"
},
"policeReport": {
"description": "A police or law enforcement report detailing the events that led to the loss."
/* Don't perform analysis for this category. */
}
},
"omitContent": true
}
}
Annotazioni
La configurazione dell'analizzatore insuranceClaim illustra come indirizzare diversi segmenti di documento a analizzatori predefiniti o personalizzati. In questo esempio, gli claimForm analizzatori e medicalReport devono essere definiti separatamente prima dell'uso. È possibile fare riferimento agli analizzatori in base ai relativi analyzerId o definirli inline usando la analyzer proprietà per un controllo più granulare. Inoltre, è possibile scegliere di ignorare tipi di documento specifici (ad esempio policeReport in questo esempio) per ottimizzare i costi di elaborazione. Questo approccio flessibile consente di personalizzare i flussi di lavoro di classificazione, segmentazione ed estrazione in base ai requisiti aziendali.
Post-elaborazione, convalida e normalizzazione
Gli analizzatori supportano l'elaborazione successiva, ad esempio l'estrazione solo della parte numerica di un valore, la normalizzazione di una data in un formato specifico o la convalida che gli articoli di riga sommati corrispondano al subtotale. È possibile specificare questi comportamenti con istruzioni semplici nelle descrizioni dei campi.
Punteggi di attendibilità e grounding
L'attendibilità e il grounding (origine) vengono impostati a livello di campo. Per ogni campo che richiede attendibilità e grounding, impostare estimateSourceAndConfidence su true.
Attivazione della revisione umana in base ai punteggi di fiducia
Dopo aver estratto i campi e i relativi punteggi di attendibilità associati e informazioni di base, è possibile automatizzare la revisione umana impostando una soglia di attendibilità. Solo i campi con punteggi di attendibilità inferiori a questa soglia vengono contrassegnati per la convalida manuale. Questo approccio garantisce che vengano esaminati solo i dati incerti, migliorando l'accuratezza e la completezza dei dati, ottimizzando al massimo l'elaborazione diretta (STP).
Questo processo di revisione selettiva consente di mantenere tassi di automazione elevati e garantisce che solo le eccezioni critiche richiedano un intervento manuale.