Di Kate Kaye
"No Code, No joke (Niente codice. Niente scherzi n.d.r.)".
Questa è la premessa fatta dall'azienda di IA business C3 AI in squillanti annunci web per il suo software Ex Machina. Il suo concorrente Dataiku dice che il proprio software low-code e no-code "promuove" gli esperti di business all’utilizzo dell'AI. DataRobot chiama i clienti che usano il suo software no-code per fare app basate sull'AI "eroi dell'AI".
Sono tra un gruppo crescente di aziende tecnologiche che dichiarano che i giorni di AI elitaria sono finiti. Dicono che con un software che richiede poca o nessuna capacità di programmazione, anche l'umile socio di marketing - ora il "citizen data scientist" - ha il potere di creare e utilizzare algoritmi di apprendimento automatico alimentati dai dati. Questo, affermano, vuole dire "democratizzare l'IA".
Gli strumenti di AI low/no-code si basano su interfacce visive con funzioni di trascinamento e menu a discesa per costruire modelli di apprendimento automatico. Possono servire ad una varietà di esigenze aziendali quotidiane, riducendo il tempo trascorso a svolgere compiti ripetitivi e manuali di inserimento dei dati, generando fatture, prevedendo la domanda di inventario o controllando i guasti alle attrezzature. I dirigenti aziendali nei team di analisi, operazioni o marketing di banche, rivenditori o aziende energetiche utilizzano software AI a low/no-code per determinare la probabilità di frode con carta di credito o ridurre il numero di clienti che passano a un altro servizio. A volte questi strumenti di IA semplicemente automatizzano i processi che in passato avrebbero richiesto più lavoro manuale utilizzando fogli di calcolo".
Ma anche le persone entusiaste di questi strumenti si preoccupano che fornire ai dilettanti dei facilitatori AI possa rappresentare un rischio.
Le stesse cose che rendono l'IA a basso costo e no-code così attraente possono rappresentare un problema, ha detto Anthony Seraphim, vice presidente di Data Governance alla Texas Mutual, che supervisiona l'uso dei dati all'interno della compagnia assicurativa di compensazione dei lavoratori, tra cui garantire che i colleghi usino i dati più appropriati per produrre rapporti analitici accurati.
"il bello è che crea molta flessibilità e velocità, ma anche la cosa negativa è che crea molta flessibilità e velocità", ha detto. Gli utenti aziendali "hanno bisogno di qualche forma di guardrail che non li rallenti".
I team IT e di sicurezza dei dati dovrebbero anche essere consapevoli di chi sta usando queste tecnologie e come, ha detto Michael Bargury, chief technology officer e co-fondatore di Zenity, una società che aiuta i team IT a monitorare l'uso delle applicazioni da parte degli utenti aziendali che potrebbero creare rischi per la sicurezza dei dati. Ha detto che le violazioni della privacy dei dati possono verificarsi se i non esperti collegano insiemi di dati che non dovrebbero essere collegati e li usano per addestrare modelli senza salvaguardie in atto.
"Il lato aziendale vuole accelerare il low-code/no-code, mentre il settore IT sente di stare perdendo il controllo della sicurezza", ha detto Bargury.
Alcuni professionisti dell'IA stessi sono diffidenti nei confronti di un uso dell'IA fatto da persone che non conoscono i processi standard per il debugging così come i test per il controllo di qualità e l'affidabilità. Si preoccupano che le persone che non sono addestrate sulle sfumature di come funziona l'apprendimento automatico potrebbero involontariamente permettere all'IA di prendere decisioni discriminatorie. E alcuni sostengono che gli strumenti di AI a basso costo e no-code non producono il livello di dettaglio necessario per spiegare come questi modelli decidono in primo luogo.
Nitzan Mekel-Bobrov, responsabile dell'intelligenza artificiale di eBay, ha già iniziato a pianificare questi nuovi pericoli. Per ora, ha detto al Protocollo, eBay permette l'uso di strumenti di IA low/no-Code per quello che lui chiama "basso rischio", "dove non c'è davvero l'opportunità di pregiudizi o problemi di privacy, ecc, nessuna frode o problemi informatici". Ma l'azienda procederà con cautela.
"Dobbiamo stare molto attenti mentre lo facciamo, perché abbiamo bisogno di capire cosa viene messo in produzione di fronte ai nostri clienti, e come si scala, è necessario tutta la strumentazione in atto per essere in grado di monitorare continuamente", ha detto.
Nuovi utenti AI, nuove preoccupazioni per i dati
In un momento in cui i data scientist sono difficili da trovare, le aziende che forniscono AI low/no-code dicono che i loro sistemi colmano un vuoto, permettendo agli uomini d'affari di trarre vantaggio dall'AI senza la necessità di assumere scienziati di dati molto ricercati e costosi.
"La tendenza low-code/no-code ha senso", in parte perché "c'è una carenza di talenti", ha detto Kasey Uhlenhuth, senior product manager di Databricks, dove aiuta a formare e costruire i suoi strumenti AutoML e modelli di machine learning. Databricks ha acquistato la società di apprendimento automatico no-code 8080 Labs in ottobre con un piano per integrare le sue capacità con i suoi strumenti AutoML esistenti in modo che "chiunque abbia solo una comprensione molto elementare della scienza dei dati, può formare modelli avanzati sui loro set di dati", secondo una dichiarazione della società.
Rendere l'AI più user-friendly amplia anche il pool di clienti che i fornitori di tecnologia AI possono servire. SparkBeyond, che fornisce una piattaforma per costruire modelli di apprendimento automatico e trovare modelli nei dati, ha scoperto che "circa il 50%" dei suoi clienti che utilizzano i suoi strumenti negli ultimi cinque anni non avevano ruoli legati alla scienza dei dati, ha detto Ed Janvrin, direttore generale della business unit Discovery Platform della società. L'azienda voleva creare un software che aiutasse le persone che non conoscono i tipici linguaggi di programmazione di machine-learning come Python o R a utilizzare e costruire modelli di machine-learning. "Volevamo espandere la nostra base di utenti", ha detto.
Molti strumenti AI a basso costo e no-code forniscono modelli pre-fatti che le persone possono addestrare e alimentare con qualsiasi fonte di dati che scelgono. Questo preoccupa Matt Tarascio, il vicepresidente senior che guida l'attività di analisi e AI di Booz Allen Hamilton a sostegno del Dipartimento della Difesa degli Stati Uniti.
"Se stai usando il low-code, no-code, non hai davvero consapevolezza della qualità degli ingredienti che entrano, e non hai nemmeno un senso della qualità del risultato", ha detto. Mentre i software low/no-code hanno valore per l'uso nella formazione o nella sperimentazione, "non li applicherei in aree tematiche in cui la precisione è fondamentale", ha detto.
Poiché i modelli di IA ben funzionanti e accurati dipendono da dati di alta qualità, Seraphim ha detto che vuole aiutare a garantire che quando gli uomini d'affari della Texas Mutual usano strumenti low/no-code per creare modelli di apprendimento automatico per aiutare a informare le decisioni, lo fanno con i dati appropriati.
Tuttavia, le restrizioni sui dati non sono sempre in atto, o i team aziendali potrebbero aggirare i team IT che sono destinati a proteggere dall'uso inappropriato dei dati, ha detto Bargury. "Stanno collegando due fonti di dati con l'IA nel mezzo, il che rende estremamente difficile per un professionista della sicurezza capire cosa sta succedendo", ha detto, notando che i team aziendali potrebbero non voler coinvolgere affatto l'IT quando si procurano o utilizzano strumenti AI low-code. "Non è qualcosa che scaturisce dall'IT, e la gente non vuole portare qualcuno che presumono renderlo lento".
Il no code non vi rende in grado di vedere gli aspetti negativi.
Gli strumenti di AI che non richiedono la scrittura di codice possono anche omettere informazioni importanti sui dati che alimentano i modelli una volta che sono in uso, ha detto uno scienziato di dati che ha richiesto l'anonimato perché non aveva il permesso del suo datore di lavoro di parlare in via ufficiale.
Per esempio, se una fornitura di dati fornita attraverso un'API viene interrotta, un processo automatizzato potrebbe subentrare e sostituire quei valori di dati mancanti; questo potrebbe alterare il modo in cui il modello era destinato a funzionare, producendo potenzialmente decisioni sbagliate basate su informazioni errate. Se un sistema automatizzato oscura il fatto che un feed di dati è rotto, e riempie automaticamente i vuoti di dati, il data scientist ha detto: "Hai solo utilizzato il no code per nascondere un errore. Questo può influenzare le prestazioni del tuo modello".
I praticanti di IA addestrati sostengono anche che gli strumenti di IA low/no-code producono modelli che non sono adeguatamente trasparenti su come prendono le decisioni. "La mia preoccupazione con le piattaforme low-code e no-code è che nascondono tutti i dettagli sulla costruzione del modello al professionista e molto probabilmente genereranno sistemi AI black-box", ha detto Krishna Gade, fondatore e CEO di Fiddler, che fornisce una piattaforma di monitoraggio AI.
La trasparenza dei modelli
Molti tra i creatori di software AI low/no-code sostengono che questi strumenti producono effettivamente modelli AI che sono più trasparenti di quelli costruiti manualmente da ingegneri AI esperti. Alcuni sistemi generano e archiviano automaticamente il codice corrispondente che sta producendo ciò che i non programmatori vedono, per esempio creando il codice che rappresenta ogni clic in un menu a discesa visualizzato in un'interfaccia utente.
I modelli automatici di apprendimento automatico costruiti utilizzando il software Databricks "stanno generando esattamente il codice di addestramento che uno scienziato dei dati avrebbe scritto per ottenere il modello", ha detto Uhlenhuth, che ha aggiunto che il codice prodotto in ambienti digitali chiamati "notebook" mostra i passi compiuti per produrre risultati, e include informazioni che mostrano quanto siano importanti le caratteristiche per i modelli quando prendono decisioni.
Il software AutoML di Databricks avvisa anche gli sviluppatori quando il sistema rileva uno "squilibrio di classe" se gli squilibri dei dati potrebbero creare danni discriminatori o influenzare negativamente la precisione del modello. "Alla fine potremmo aggiungere una sorta di manopola che dice, 'Ehi, usa solo tipi di modelli che sono più spiegabili, e poi limiterà il set di algoritmi di apprendimento automatico che vengono eseguiti'", ha detto Uhlenhuth.
Ed Abbo, presidente e chief technology officer di C3 AI, ha detto che le cose sono cambiate da quando i vecchi strumenti low/no-code producevano modelli "scatola nera". Gli strumenti di C3 AI forniscono informazioni che mostrano perché un modello di apprendimento automatico fa una particolare previsione, come quando un modello predice che un pezzo di attrezzatura è probabile che fallisca. Il sistema fornisce metriche per aiutare gli utenti a interpretare e comprendere i risultati dell'apprendimento automatico, avvisandoli se stanno usando dati non validi e, come Databricks, mostrando quali caratteristiche hanno il maggior peso quando il modello fa le previsioni.
In qualche modo, il codice generato automaticamente dall'IA low/no-code potrebbe effettivamente fornire informazioni più illuminanti su come i modelli sono stati costruiti rispetto a ciò che gli scienziati dei dati creano in genere, ha detto lo scienziato dei dati che ha chiesto di rimanere anonimo. Spesso le persone che costruiscono modelli da zero non mostrano il loro lavoro, hanno detto, aggiungendo che tipicamente, "metti il tuo modello nel cloud senza documentare i parametri di allenamento".
Ancora, mostrare semplicemente il codice non spiega come funzionano i modelli, ha detto il data scientist: "Farei attenzione all'argomento della trasparenza del modello".
"Ricordate, il codice di allenamento del modello non è il codice del modello. Dirà solo i parametri come il numero di strati in una rete neurale, l'ingegneria delle caratteristiche, ecc. Il modello stesso rimane ancora una scatola nera", ha detto Gade in una e-mail. "È difficile sapere come il modello farà una previsione e questo crea sfiducia su come usarlo e come assicurare ai clienti che i prodotti AI stiano prendendo le giuste decisioni".
Ciò che accade a un modello dopo che è stato distribuito richiede anche una particolare attenzione, ha detto Mekel-Bobrov di eBay. "Poiché permettiamo ai team di tutta l'azienda di utilizzare no-code o low-code, e qualsiasi tipo di sviluppo AI, dobbiamo avere i giusti requisiti e processi in atto per il monitoraggio continuo", ha detto.
Impostazione dei parametri
AppSheet di Google Cloud, una piattaforma no-code per la costruzione di applicazioni che possono aiutare ad automatizzare i processi aziendali come la generazione automatica di fatture o l'invio di e-mail di assistenza clienti, fornisce informazioni sull'accuratezza del modello ma non genera codice che mostra come i modelli di machine-learning sono costruiti utilizzando il sistema, ha detto Peter Dykstra, un product manager di Google.
Mentre spiegare come funzionano i modelli no/low-code è importante, AppSheet permette agli utenti di definire chi può accedere ai modelli o alle app o ai dati specifici. "Se una soluzione è creata da alcuni dati di formazione particolari con qualche tipo di [informazioni di identificazione personale] al suo interno, allora possono garantire che solo alcuni utenti possano accedervi", ha detto Dykstra.
Il sistema di C3 AI permette anche agli utenti di impostare i parametri per l'accesso ai dati. "Quando accedo come citizen data scientist, ci sono oggetti e servizi che posso usare e vedere, e ce ne sono altri che non posso perché non dovrei", ha detto Abbo.
Nonostante queste misure precauzionali, Gade di Fiddler ha detto che gli strumenti AI low/no-code nelle mani sbagliate potrebbero portare ad un uso improprio. "Se i praticanti sono informati, potrebbero prendere i modelli prodotti dalle piattaforme no-code e stressarli accuratamente e monitorarli per assicurarsi che stiano lavorando bene. Ma data la facilità di queste piattaforme dove le persone possono caricare un CSV e generare un modello con il 90% di precisione, potrebbe dare questo superpotere a persone meno esperte che potrebbero abusarne accidentalmente", ha detto Gade.
C3 AI mira a educare i cosiddetti citizen data scientist per alleviare queste preoccupazioni. L'azienda ha pubblicato materiali di formazione e offre un programma di formazione e certificazione di 30 giorni per il suo software AI no-code. "Richiede ancora un'educazione sul concetto di cosa sono l'AI e l'apprendimento automatico, e cosa si può fare e cosa non si può fare con esso", ha detto Abbo.
Andrew Ng, noto ricercatore nel campo dell'apprendimento automatico, la cui startup Landing AI aiuta i produttori ad addestrare modelli di IA personalizzati utilizzando i suoi strumenti no-code e low-code, riconosce i rischi di consegnare alle persone le chiavi dell'IA senza istruzione. Come ci si poteva aspettare, ha messo in guardia contro il rischio di impedire ai non programmatori di godere dei benefici dell'IA. "Permettere a un maggior numero di persone di utilizzare l'IA per democratizzarne l'accesso sembra un'ottima cosa", ha detto, ma ha aggiunto: "È fondamentale che la responsabilizzazione sia accompagnata da una guida e da norme adeguate".