In un'epoca di austerità e un clima di paura per gli abusi sui minori, forse non sorprende che gli assistenti sociali si siano rivolti alle nuove tecnologie per chiedere aiuto.
Autorità locali - che devono affrontare domanda crescente e una carenza di finanziamenti di £ 800m - stanno iniziando a chiedere se i big data potrebbero aiutare a identificare i bambini vulnerabili.
Un programma per computer potrebbe segnalare una famiglia problematica, identificare una potenziale vittima e prevenire un altro Baby P o Victoria Climbié?
Anni fa, tali domande sarebbero state roba da fantascienza; ora sono roba di fatto scientifico.
Bristol è un posto dove sperimentare queste nuove capacità e alle prese con le questioni morali ed etiche che ne derivano.
Gary Davies, che supervisiona il sistema predittivo del consiglio, può vedere i vantaggi.
Sostiene che ciò non significa eliminare gli umani dal processo decisionale; piuttosto significa usare i dati per impedire agli umani di commettere errori.
"Non sta dicendo che verrai sfruttato sessualmente o che ti perderai", dice Davies. “Sta dimostrando le caratteristiche comportamentali dell'essere sfruttato o della perdita. Sta segnalando tale rischio e vulnerabilità. "
Tali tecniche hanno funzionato in altre aree per anni. I sistemi di apprendimento automatico costruiti per estrarre enormi quantità di dati personali sono stati a lungo utilizzati per prevedere il comportamento dei clienti nel settore privato.
I programmi per computer valutano la probabilità di insolvenza su un prestito o la percentuale di rischio per un fornitore di assicurazioni.
I progettisti di un modello predittivo devono identificare una "variabile di risultato", che indica la presenza del fattore che stanno cercando di prevedere.
Per la tutela dei minori, potrebbe trattarsi di un bambino che entra nel sistema di assistenza.
Tentano quindi di identificare le caratteristiche che si trovano comunemente nei bambini che entrano nel sistema di cura. Una volta identificati, il modello può essere eseguito su set di dati di grandi dimensioni per trovare altri individui che condividono le stesse caratteristiche.
The Guardian ha ottenuto i dettagli di tutti gli indicatori predittivi considerati per l'inclusione nel sistema di protezione dei minori del consiglio Thurrock. Includono la storia di abusi domestici, offesa dei giovani e assenze.
Indicatori più sorprendenti come arretrati di affitto e dati sanitari sono stati inizialmente considerati ma esclusi dal modello finale. Nel caso sia di Thurrock, un consiglio dell'Essex, sia del distretto londinese di Hackney, le famiglie possono essere segnalate agli assistenti sociali come potenziali candidati per il programma Troubled Families. Attraverso questo schema i consigli ricevono sovvenzioni dal governo centrale per aiutare le famiglie con difficoltà a lungo termine come la disoccupazione.
Tali sistemi comportano inevitabilmente problemi di privacy. Wajid Shafiq, amministratore delegato di Xantura, la società che fornisce lavoro di analisi predittiva sia a Thurrock che a Hackney, insiste sul fatto che vi sia un equilibrio tra i diritti alla privacy e l'uso della tecnologia per fornire un bene pubblico.