Intervista: Il dilemma del pregiudizio nell'intelligenza artificiale nel settore delle costruzioni
23 gennaio 2025
Il ruolo dell'intelligenza artificiale (IA) nell'edilizia cresce, ma le sfide con i pregiudizi richiedono soluzioni ponderate. Catrin Jones parla con Karoliina Torttila, direttore dell'IA presso Trimble, di alcune di queste soluzioni.
L'intelligenza artificiale (IA) ha trasformato le industrie in tutto il mondo, e il settore delle costruzioni non fa eccezione. Dall'ottimizzazione della logistica al miglioramento dei controlli di conformità , l'IA sta plasmando l'ambiente costruito in modi prima inimmaginabili.

Ad esempio, gli strumenti di progettazione basati sull'intelligenza artificiale possono automatizzare i flussi di lavoro, accelerando le tempistiche dei progetti e riducendo al contempo gli errori. I sistemi di manutenzione predittiva sfruttano l'intelligenza artificiale per identificare potenziali guasti alle apparecchiature prima che si verifichino, garantendo la sicurezza dei lavoratori e riducendo al minimo i tempi di inattività . Inoltre, l'intelligenza artificiale sta trasformando la gestione delle risorse, aiutando le aziende edili ad allocare i materiali in modo più efficiente e sostenibile.
Tuttavia, con questi progressi arrivano anche delle sfide, in particolare per quanto riguarda i pregiudizi. Per esplorarli, Construction Europe ha parlato con Karoliina Torttila, direttrice AI presso Trimble. Con la sua vasta esperienza nello sviluppo di AI, Torttila offre approfondimenti sulle cause dei pregiudizi, le loro implicazioni per il settore e le possibili soluzioni.
Comprendere i pregiudizi nell'intelligenza artificiale
"Il pregiudizio è un concetto essenziale nello sviluppo dell'IA", inizia Torttila. "Mentre le discussioni sociali spesso descrivono il pregiudizio in modo negativo, nell'IA, un certo livello di pregiudizio induttivo è necessario affinché i modelli di apprendimento automatico funzionino". Spiega che il pregiudizio induttivo consente ai modelli di IA di fare ipotesi basate sui dati di addestramento, consentendo loro di concentrarsi su scenari plausibili invece di essere sopraffatti da infinite possibilità .
Tuttavia, il problema sorge con pregiudizi dannosi derivanti da dati di training incompleti o distorti. "Prendiamo la mappatura geospaziale", afferma. "Se i dati di training non sono rappresentati da aree remote o da determinati continenti, i modelli di intelligenza artificiale potrebbero produrre mappe di qualità inferiore, portando a una pianificazione infrastrutturale inadeguata o a risorse allocate in modo errato".
Indica anche gli algoritmi di conformità come un altro esempio. Se addestrati su dati provenienti da una sola giurisdizione, questi modelli potrebbero segnalare in modo errato o trascurare problemi dovuti a discrepanze normative regionali, avverte.
Bias nei modelli linguistici
Torttila approfondisce le sfumature del bias nei grandi modelli linguistici (LLM), sempre più utilizzati in tutti i settori. "Il bias può entrare in più fasi di sviluppo, dalla fase di pre-addestramento, in cui i modelli apprendono i modelli linguistici, alla fase di messa a punto, in cui l'input umano introduce preferenze soggettive".
Ad esempio, il compito umano di classificare gli output del modello per qualità introduce intrinsecamente pregiudizi. "Anche le linee guida rigorose per gli annotatori si basano sull'interpretazione di qualcuno", osserva. Torttila evidenzia anche le sfide nell'allineamento della sicurezza, dove gli sforzi per prevenire output dannosi possono talvolta essere eccessivamente corretti. Ci sono stati esempi di modelli di generazione di immagini che hanno prodotto output inaspettati a causa di queste correzioni.
Il contesto industriale
Nell'edilizia, le implicazioni del bias possono essere significative. Le applicazioni AI di Trimble spesso coinvolgono dati su asset dell'ambiente costruito, come edifici e ponti, piuttosto che informazioni personali. Questa distinzione non elimina il bias, ma ne cambia la natura. "Dati inadeguati su materiali più recenti o regioni sottorappresentate possono causare errori che influenzano interi progetti", spiega Torttila.
Sottolinea che il settore deve affrontare i pregiudizi con una mentalità costruttiva. "Cacciare i pregiudizi e punire i fallimenti non favorisce il miglioramento", afferma. Invece, promuovere la collaborazione tra le parti interessate può guidare il progresso.
“Uno sviluppo positivo nell'ambiente costruito, sia in Europa che a livello globale, è il crescente numero di consorzi che riuniscono diverse parti. Ciò riflette una comprensione condivisa che le sfide che affrontiamo sono troppo grandi perché una singola entità possa affrontarle da sola.�
Quando le viene chiesto quali siano le soluzioni, Torttila è chiara: la qualità dei dati e la trasparenza sono fondamentali. "Includere set di dati diversificati e di alta qualità è una parte importante della mitigazione dei pregiudizi", afferma. Sottolinea inoltre l'importanza di costruire sistemi attorno a modelli di IA che includano misure di salvaguardia come la supervisione umana o controlli di IA secondari.
La regolamentazione è un altro ambito in cui, secondo lei, avrà un ruolo chiave. "L'European AI Act è un passo importante, ma è fondamentale trovare il giusto equilibrio", consiglia.
L'eccessiva regolamentazione potrebbe soffocare l'innovazione, limitando lo sviluppo dell'IA solo alle aziende più grandi e meglio finanziate. "Solo aziende come Microsoft, Google, OpenAI e poche altre che sviluppano questa tecnologia saranno in grado di gestirla. Le startup più piccole, le organizzazioni non profit o persino le università potrebbero non essere in grado di farlo perché l'onere normativo è troppo pesante.
"Penso che ci sia il rischio di ostacolare il progresso se la regolamentazione non viene affrontata con attenzione. Ecco perché legiferare e regolamentare al giusto livello, qualunque sia il livello necessario, deve essere il punto di partenza", afferma.
La dinamica uomo-macchina
Torttila sottolinea l'importanza dell'interazione tra esseri umani e macchine per mitigare i pregiudizi. L'intelligenza artificiale non opera in modo isolato. La maggior parte dei settori, tra cui l'edilizia, non è ancora a un punto in cui si sente a suo agio con sistemi completamente autonomi che prendono decisioni. La supervisione umana rimane essenziale, sia come punto di controllo finale che come parte di un ciclo di feedback più ampio.
Affronta anche la responsabilità , una questione controversa nell'etica dell'IA. "La responsabilità è condivisa tra sviluppatori, utenti e la società in generale", sostiene. La trasparenza e l'impostazione di aspettative realistiche sono essenziali. "La perfezione è irraggiungibile, ma inizieremo da qualche parte, forniremo valore e poi, si spera, collettivamente miglioreremo le cose".
Le intuizioni di Torttila rivelano sia le sfide che le opportunità di affrontare i pregiudizi nell'IA nel settore edile. Man mano che l'IA diventa sempre più integrata nell'ambiente costruito, saranno fondamentali approcci ponderati ai dati, alla regolamentazione e all'interazione uomo-macchina. Sebbene la strada da percorrere sia complessa, promuovere la collaborazione e mantenere una mentalità costruttiva può garantire che l'IA continui a offrire benefici trasformativi alla società e all'edilizia.
RESTA CONNESSO




Ricevi le informazioni di cui hai bisogno, quando ne hai bisogno, attraverso le nostre riviste, newsletter e briefing quotidiani leader a livello mondiale.
CONNETTITI CON IL TEAM



