Home Blog Pagina 2

Quello che non ti dicono di Three.js – Parte 1

Three.js è una potente libreria per implementare WebGL (e quindi grafica 3D realtime) nel browser.

E’ indubbiamente la libreria con la community più attiva (Github, Stackoverflow, etc) ma molto spesso i problemi, e le loro risoluzioni, scalfiscono solo la superficie delle potenzialità di tale libreria in quanto la quasi totalità degli utilizzi si ferma ad un suo uso basilare.

Di seguito una raccolta, costantemente aggiornata, di spunti e riflessioni su argomenti non propriamente “di base” ma con cui sicuramente ci si può scontrare appena si entra nel vivo dell’utilizzo di Three.js

Risolvere aberrazioni visive di Z-buffer dovute alla distanza delle camera

Il problema dello Z-buffer è uno dei più noti in ambito 3D in quanto produce delle aberrazioni visive notevoli in concomitanza con la distanza degli oggetti rispetto alla camera. Questo perché il Depth Buffer non riesce a visualizzare correttamente superfici che si sono in overlap (o quasi).

Per ovviare a questo problema, Three.js espone un parametro del renderer che imposta il Depth Buffer su scala logaritmica e che, se impostato a true (non di default), non mostra aberrazioni di sorta.

renderer.logarithmicDepthBuffer = true;

Qui si può trovare un approfondimento “matematico” al problema.

E’ da segnalare come l’abilitazione di questa opzione possa impattare negativamente sulle performance dell’antialias del renderer.

Ottimizzare le ombre di una scena statica

Qualora si debba lavorare con una scena statica (quindi senza elementi in scena che si muovono come modelli o le luci stesse), è possibile ottimizzare la scena generale disabilitando, dopo qualche istante, l’aggiornamento automatico delle ombre (della shadowMap). Questo farà in modo che nei primi istanti la shadowMap venga generata correttamente ma subito dopo non venga più ricalcolata. Eventualmente, se qualcosa in scena si potrà muovere, si potrà riabilitare e disabilitare tale funzione.

setTimeout(() => { this.renderer.shadowMap.autoUpdate = false; }, 500);

Caricare una immagine HDR ed assegnarla come envMap ad ogni materiale fisico in scena

Per scene statiche è possibile ottimizzare l’uso delle luci escludendo quelle dinamiche in scena (point, direction, etc) ed implementando un ambiente con immagine HDR (un particolare formato “raw” che include tutto lo spettro dei colori). Questa tecnica permette di illuminare gli oggetti in scena utilizzando le informazioni presenti in tale immagine. E’ necessario caricare (attraverso il componente aggiuntivo RGBELoader di Three.js) una immagine .hdr, mapparla come EquirectangularReflectionMapping e impostarla per il background e l’environment della scena, unitamente a specificarla in ogni mappa envMap degli oggetti Mesh presenti.

 new THREE.RGBELoader().load('Contrastata.hdr', function (texture) {
    texture.mapping = THREE.EquirectangularReflectionMapping;
    mainScene.background = texture;
    mainScene.environment = texture;
    mainScene.traverse(function (obj) {
        if (obj instanceof THREE.Mesh) {
            try {
                obj.material.envMap = texture;
                obj.material.envMapIntensity = 1.0;
            } catch{ console.log(obj.name + ": setting envMap ERROR"); }
        }
    });
});

Qui il download della immagine HDR dell’esempio.

Flippare le mappe dei materiali di un file GTLF/GLB sull’asse verticale (V)

Sembra essere una prerogativa del formato .gltf/.glb ma, qualora si volesse applicare una mappa ad un materiale di un file esportato in tale formato, è necessario invertire l’asse verticale della mappa UV (quindi sull’asse V).
Di seguito un modo semplice per flippare entrambi gli assi a piacimento.

let repeatX, repeatY = 1.0;
let flipU = false;
let flipV = true;
texture.center.set(0.5, 0.5);
texture.repeat.set(repeatX * (flipU ? -1 : 1), repeatY * (flipV ? -1 : 1));

Aggiungere un set di coordinate UV2 aggiuntivo ad una mesh

Può capitare di dover aggiungere un set aggiuntivo di coordinate ad una mesh, ad esempio per collocare una aoMap generata custom. Per fare questo l’unico modo plausibile è quello di duplicare il primo set (solitamente già presente) attraverso questa semplice associazione:

child.geometry.setAttribute('uv2', child.geometry.attributes.uv);

Gestire le coordinate UVs in un modello GLTF

Come da guida di Three.js, la mappa di Ambient Occlusion (aoMap) e quella delle luci (lightMap) necessita di un set di UV differente rispetto alle altre mappe dei materiali. Questo perché è logico pensare che il primo set riguardi la possibilità di ruotare, ripetere o scalare a piacimento l’aspetto estetico del materiale, mentre il secondo riguarda informazioni di mappa proveniente da un calcolo di scena che tendenzialmente è fisso (luci, ombre, occlusioni, etc).

Il formato GLTF, per quanto riguarda le UVS, considera questi assunti:

  • Se è presente una sola UV: questa viene impostata sull’attributo geometry.attributes.uv (solitamente la Color Map)
  • Se sono presenti due UVs: sull’attributo geometry.attributes.uv viene associata la Baked Map (es: aoMap), sull’attributo geometry.attributes.uv2 viene associata la Color Map

Come si può immaginare questo crea non pochi problemi in quanto la Color Map (la mappa principale di un materiale, presente praticamente sempre) si può trovare in due posizioni diverse in base ai casi (uv o uv2). Per questo motivo può essere necessario prevedere una modalità per invertire le mappature in modo da riportare la Color Map sempre sulla uv (e non uv2), cosi:

if (child.geometry.attributes.uv != null && child.geometry.attributes.uv2 != null) {
    let tempUV = child.geometry.attributes.uv2;
    child.geometry.setAttribute('uv2', child.geometry.attributes.uv);
    child.geometry.setAttribute('uv', tempUV);
}

Ottimizzare il filtro anisotropico

Il filtro anisotropico applicato alle mappe dei modelli permette di ridurre la sfuocatura delle texture sulla distanza. Di base questo valore è 1, oggettivamente molto basso. In nostro aiuto c’è una funzione del renderer che ritorna il valore anisotropico massimo impostabile dalla scheda video. Tale valore è solitamente un multiplo di 2 (2, 4, 8, 16, etc). Un valore troppo alto però mostra le immagini in modo troppo nette producendo anch’esso (strano a dirsi) artefatti sulla distanza. Per questo motivo il consiglio è di dividere per 2 il valore ritornato dalla funzione del renderer.

texture.anisotropy = renderer.capabilities.getMaxAnisotropy() / 2;

Il metaverso non fa così schifo come crediamo

Oggettivamente il metaverso fa schifo.
Si, perché se provate ad entrarci vedrete dei territori dal costo spropositato, bruttamente arredati, con poche centinaia di persone attive e dalla grafica che ricorda si e no un videogioco del Nintendo 64… di quelli con voto 4/10.

Non è questo che la gente si aspetta dopo aver visto il film Ready Player One del 2018 (Steven Spielberg alla regia) e che descrive ampiamente il senso di metaverso a cui si dovrebbe arrivare, che piaccia o meno.
Oggi la situazione è drasticamente questa, c’è poco da dire.

In questo post vorrei però elencare quali sono gli approcci al metaverso di oggi che possiamo provare a salvare.

E’ uno strumento web 3 per fare marketing 2.0

Non necessariamente quello che è nel metaverso deve rimanere nel metaverso, anzi.

Allo stato attuale è possibile usare il metaverso come contenitore, o strumento, per attività di marketing che non necessariamente rimango nel web3. Basti pensare che tutto quello che viene fatto in un ambiente digitale può essere costruito, confezionato e successivamente distribuito esternamente da quell’ambiente.

Si pensi alla campagna di lancio della nuova birra Heineken Silver (marzo 2022), una birra senza calorie, senza alcool e senza… birra. Ovviamente una campagna irriverente per prendersi in giro (…e forse prendere in giro?) ma che ha fatto parlare di se con le classiche regole del marketing 2.0. Abilmente presentata in Decentraland, il metaverso ha fatto da studio di registrazione e luogo dell’evento in una veste grafica inusuale ma sicuramente sulla bocca di tutti.

Dunque cerchiamo di non pensare il metaverso come uno ambiente chiuso, ad appannaggio di pochi, circoscritto e poco invitante ma proviamo anche a pensarlo come ambiente per sviluppare contenuti utili per le classiche operazioni di marketing che, volenti o nolenti, dovremo continuare a fare.

La presentazione della birra Heineken Silver in Decentraland

Gli strumenti sono democratici (SPOILER: la differenza è nella creatività)

Attualmente i metaversi sono quelli che sono e pressoché tutti con le stesse caratteristiche (mi riferisco a quelli principali, non a software di videoconferenze o rooms condivise venduti come metaversi). Interazione con l’ambiente limitata, grafica ridotta ai minimi termini, animazioni strutturate inesistenti e quant’altro rendono brutti questi spazi digitali. E’ una sorta di democrazia, perché attualmente TUTTI i brand (o chiunque) vengono rappresentati in questi termini ed investire di più non li rappresenta meglio degli altri. E’ come se fosse un “fermi tutti e palla al centro”.

In un contesto simile quindi quello che fa la differenza è la creatività e, in particolar modo, come vengono usati strumenti e concetti di tutti per sfruttare la potenzialità del metaverso. Si pensi ad esempio al progetto lanciato a marzo 2022 di Gucci dove si è pensato di aprire una sartoria digitale in The Sandbox che implementa i concetti di NFT, crypto valute, arte digitale, digital clothing e avatar personalizzati coinvolgendo gli utenti dalla fase di pre-lancio fino alla realizzazione di capi dedicati (qui un approfondimento).

E’ un ambiente 3D approcciabile da sviluppatori e creatori di contenuti senza skill 3D

Come disse Mark Zuckerberg qualche mese fa nel presentare Meta, il metaverso ha bisogno di creatori di contenuti per essere sviluppato altrimenti si riduce ad essere uno spazio vuoto. L’obiettivo è quindi quello di dare strumenti facili e performanti a tutti coloro che vogliono sperimentare. Per questo motivo nascono e si sviluppano modalità sempre più accessibili: si pensi al Builder di Decentraland oppure la sua stessa SDK. Due modi completamente diversi di creare contenuti ma con lo stesso obiettivo: il primo attraverso un editor che più facile non c’è, il secondo un framework per sviluppatori facilmente comprensibile anche senza conoscenze di 3D profonde.

L’obiettivo è dunque quello che far nascere e crescere skills dedicate a questi mondi così da introdurre sul mercato la domanda, l’offerta e la competizione (tra i creatori e i metaversi stessi).

Il Builder di Decentraland

Conclusioni

Per questa volta cerchiamo di essere innovatori e di vederci della vera innovazione.
Come tale deve però essere vista come un punto di partenza non di arrivo.

Il metaverso che vediamo oggi non è il metaverso del futuro, è come se stessimo giudicando la ruota dei nostri antenati preistorici ma non la Tesla su cui verrà montata secoli dopo.

Essere detrattori non porta innovazione e non porta al futuro a cui tutti accederemo. Proviamo a guardare al metaverso attuale come qualcosa da sfruttare ora e per come è, ma anche da studiare ed evolvere per come sarà.

Il mio consiglio finale?
Fatevi un giro in Decentraland, non serve nemmeno un account (pulsante “Play As Guest” in homepage).

Creare una mappa Cubemap partendo da una immagine 360° panoramica

Per esigenze di visualizzazione di sfondi non interattivi, ad esempio in configuratori 3D, potrebbe rendersi necessaria la creazione di una Cubemap. Questo tipo particolare di texture non è altro che un insieme di texture appositamente creare per dare l’illusione di uno sfondo in movimento rispetto alla camera. E’ un effetto che solitamente per gli skybox dei videogiochi rappresentandone il cielo oppure le stelle ma anche in visualizzatori per ambientare una scena fissa.

E’ però indubbio che non è facile avere sottomano una Cubemap già pronta in quanto composta da 6 mappe. Quello che spesso si ha a disposizione, oppure è più facile generare, è una texture 360° panoramica (scattata con opportune fotocamere).

Di seguito una lista di risorse web e software (gratuiti e non) per generare una Cubemap da una fotografia 360°

Il Digital Clothing spiegato facile

E’ ormai da diverso che si sente parlare di Digital Clothing, associato a termini come Digital Fashion, e-fashion, metafashion e chi più ne ha più ne metta.

In realtà sono tutti termini vicini ad un unico concetto: quello di portare la moda, e quindi l’abbigliamento, in un ambito digitale attraverso l’utilizzo di modelli 3D che ne rappresentano perfettamente lo stile, la manifattura, il materiale e l’indossato.

E’ un concetto non prettamente nuovo in quanto già da anni lo sviluppo di modelli 3D passa attraverso simulazioni digitali (ad esempio usando software tipo Clo3D o Marvelous Designer). Ma è con l’avvento del tanto decantato Metaverso che questo trend sembra essere tornato alla ribalta più che mai.

DressX oltre il fast fashion

Una recente ricerca afferma che “Una donna su tre ritiene un capo di abbigliamento ‘vecchio’ dopo averlo indossato una o due volte”. Indubbiamente questo apre a diversi scenari tra i quali la rivendita associato al riuso (qualcuno ha detto Vinted?) oppure l’enorme spreco, di denaro e materie, che la produzione di tale abbigliamento genera. Per questo motivo la startup DressX (creata da, guardacaso, due ragazze) è salita alla ribalta perchè propone la vendita di abiti digitali per le proprie fotografie social (soprattutto rivolte a influencers e VIPs). Attraverso il loro store digitale è quindi possibile acquistare il proprio abito digitale e, inviando una fotografia di se con specifiche caratteristiche, ottenere la stessa fotografia con l’abito indossato. In questo modo è possibile proporre il costo dell’abito ad un prezzo molto più basso della controparte cucita in favore di meno scarti derivanti da acquisti compulsivi.

Qui un esempio di cappello che si può trovare a 25 dollari su DressX con un esempio di indossato.

Di seguito invece un divertente, ma esplicativo, video di una ragazza che ha acquistato 2000 dollari di abiti digitali alcuni dei quali, è doveroso dirlo, dal dubbio risultato.

Non proprio tutti gli abiti digitali vengono bene, diciamo

Videogames e abbigliamento di lusso

Indubbiamente il mondo dei videogiochi può essere un trampolino di lancio per il fashion e questo, i grandi marchi, non se lo stanno facendo scappare. Un esempio è una sfilata di abiti digitali per gli avatar di Animal Crossing presentata da Loewe e Prada; oppure le skin di Louis Vuitton presentate nel settembre 2019 per League Of Legends e il più recente caso di Balenciaga in Fortnite. Chiaramente quello che si vuole ottenere è la presenza del brand in un “luogo digitale” dove i propri acquirenti si trovano a loro agio (seppur sparando, costruendo isole o combattendo) proponendo versioni dei propri abiti adattate agli avatar 3D e all’ambiente che l’uno o l’altro videogioco propongono.

La sfilata di moda in Animal Crossing per Nintendo Switch

Abiti digitali nel Metaverso

Il più recente concetto di Metaverso include molti aspetti riguardanti i videogiochi unitamente a quelli del business e della moda. Si pensi ad esempio alla personalizzazione di un avatar 3D rispetto alle proprie fattezze con la possibilità di personalizzare capi firmati e quindi indossarli durante una riunione in Slask, Skype, Microsoft teams o Google Meet. E’ chiaro che questo si porta dietro altri concetti come quello di NFT (Non-Fungible Token) unito a quello di scarsità (o di unicità, se volete vederla in positivo).

Il Metaverso è ancora lontano da venire e, ad oggi, è necessario parlare di molti metaversi specifici in quanto le grandi compagnie (Meta, Microsoft, Amazon, etc) stanno sviluppando “il loro” Metaverso utilizzando tecnologie già presenti sul mercato. L’obiettivo potrebbe essere quello di arrivare ad uno standard (sia di piattaforma, sia di formati) che permetta ai creatori di contenuti di lasciar correre la propria fantasia invece di rincorrere gli aspetti tecnici. Sono proprio questi, i creatori di contenuti, la leva che serve ai metaversi per crescere ed è dunque auspicabile che vengano messi nelle condizioni corrette e semplici di lavorare.

Microsoft Mesh ha l’ambizione di creare una piattaforma che unisca strumenti di lavoro a quelli del Metaverso

Conclusioni

Il concetto di Digital Clothing abbraccia diversi contesti (social networks, videogiochi, metaversi, etc) e può essere approcciato in diversi modi (fotografie editate, modellazione 3D, simulazione 3D, stampa 3D, etc). Quello che è certo è che i brand, soprattutto quelli luxury, si stanno affacciando in modo prepotente a questo nuovo modo di fare moda. Sia per arrivare a nuovi potenziali clienti, sia per espandere il loro catalogo in territori non prettamente fashion.

Difficile dire se il più generico concetto di Digital Fashion è qui per restare in quanto il contesto attuale pone diversi limiti ma anche diversi dubbi sul reale potenziale di questo approccio (non sulla tecnologia 3D, pressoché consolidata). Quel che è certo è che assisteremo ad una “invasione” da parte dei brand in ambiti fino a ieri preclusi in attesa di ritrovarci, tra qualche anno, con un casco in testa e all’interno di una stanza virtuale per presenziare al nostro prossimo colloquio vestiti con un abito di Dolce&Gabbana condividendone poi il successo sul nostro account social preferito.

Fortine + Balenciaga

Come risolvere l’errore ‘Building – Failed to write file: sharedassets0.assets” durante la compilazione di Unity

Purtroppo quello indicato è uno dei “classici” errori di Unity non documentati e anche poco parlanti a livello di log.

Questo errore sembra essere generato da una referenza interna perduta che non è possibile recuperare se non cancellando e riaggiungendo l’oggetto (GameObject) che ne provoca l’errore. Come detto il log in console non riporta l’oggetto che genera l’errore e quindi, in scene molto ampie, diventa pressoché impossibile trovarne la causa e risolverla.

L’unica soluzione quindi risulta essere quella di creare completamente una nuova scena e copiare tutti i GameObject di quella che genera l’errore dentro la nuova. A quel punto si può rimuovere quella vecchia, salvare quella nuova con il nome precedente e riavviare la compilazione che, nella maggior parte dei casi, dovrebbe ora terminare positivamente.

Errore MySQL Invalid attempt to access a field before calling Read() quando si esegue un backup/export e lo si importa in un’istanza su hosting shared

Dopo aver lavorato in locale con MySQL è chiaramente necessario portare il database da locale a online/remoto.

Questa procedura avviene tramite export del database locale (ad esempio con MYSQL Workbench) e poi importazione in remoto sul server online tramite procedura in PHPMyAdmin. La procedura di per sè è molto semplice in quanto l’interfaccia web chiede pochissime informazioni durante l’import.

Può succedere però che per motivi di versioni di MySQL, il database venga importato correttamente ma in un formato incompatibile con le chiamate SQL che si eseguono con l’applicativo (spesso riguardanti nomi e funzione di LIKE).

L’errore ritornato però, investigando nel log dell’applicativo, è del tutto generico:

Invalid attempt to access a field before calling Read()

La connessione al database sembra funzionare ed essere inizializzata correttamente ma la lettura fallisce indicando quell’errore (che tra l’altro riguarda problemi sulle stringhe e troverete online e su Stackoverflow miriadi di esempi).

La soluzione sta nel formato di compatibilità del database importato.
Per risolvere è necessario “droppare” tutte le tabelle del DB (non state a ricostruire il database da zero) e reimportare con PHPMyAdmin il database avendo cura di selezionare l’opzione “SQL compatibility mode” uguale a “MYSQL40” (e non lasciare l’opzione di default).

Awake e Start di Unity spiegati facile

Spesso quando ci si approccia a Unity si fa confusione tra ciò che deve essere inserito in Awake e cosa in Start. Di seguito le sostanziali differenze.

Awake

Viene eseguita una sola volta, arbitrariamente e non ordinata (in sostanza non si può sapere se un oggetto venca “svegliato” prima di un altro, a meno di averne impostato lo Script Order nelle opzioni di progetto).

Deve contenere unicamente le inizializzazioni delle proprietà interne dell’oggetto a cui si riferisce (le private, le base. o le this. per intenderci). Dunque non può contenere riferimenti ad altri oggetti oppure a Singleton in quanto appunto non se ne conosce l’ordine di esecuzione.

Viene sempre eseguita anche se l’oggetto non è abilitato.

Viene sempre eseguita prima della funzione Start() dell’oggetto stesso.

Start

Viene eseguita una sola volta e può contenere inizializzazioni con riferimenti ad altri oggetti della scena. E’ necessario farlo qui e non in Start() in quanto se lo si facesse in Start() si rischierebbe di utilizzare parametri di oggetti non ancora inizializzati con Awake() in quanto quest’ultima viene eseguita in modo non in ordinato.

Viene eseguita solo se l’oggetto è attivo, e solo la prima volta (successive disattivazioni/attivazioni non rieseguono la funzione).

Viene eseguita dopo Awake() e prima di Update().

Convertire i file GLB ed estrarne gli asset GLTF e le mappe

Cosa è un file GLB

Il file 3D formato .glb è un formato binario che fa da contenitore per il formato .gltf e le mappe grafiche (png, tga, jpeg, etc), molto simle al concetto dello ZIP. Contiene diverse informazioni tra cui le camera, le gerarchie, i materiali, le mappe, i json e altri file binari. Si scegli di utilizzare il file .glb invece che .gltf in quanto riduce molto la dimensione del file file, anche del 30%.

Come convertire un file GLB

Capita spesso, soprattutto in ambito web e nei configuratori online, di avere a che fare con file GLB e la necessità di ottenerne il contenuto. Per estrarre il contenuto di tali file viene in aiuto glTF-Shell-Extensions che è possibile trovare su Github.

E’ davvero un componente facilissimo in quanto, una volta installato, aggiungerà un menu contestuale a tutti i file .glb permettendo, tramite la voce “Unpack to glTF…”, di generare una cartella avente al suo interno tutto il contenuto del file GLB.

Qui il repository del progetto su Github
Qui l’ultima versione compilata per Windows

Convertire da GLTF a GLB

glTF-Shell-Extensions permette anche di covnertire e compattare un file GLTF in un file GLB, nella stasse modalità descritta sopra. Semplice ed intuitivo.

Errore “The specified path, file name, or both are too long” durante la compilazione in Visual Studio

Recentemente mi sono imbattuto in questo tipo di errore durante la compilazione di un progetto web in Visual Studio 2017 (ma è un errore noto anche in Visual Studio 2019):

“The specified path, file name, or both are too long. The fully qualified file name must be less than 260 characters, and directory name must be less than 240 characters.”

oppure, in italiano:

“Il percorso, il nome o entrambi i nomi di file specificati sono troppo lunghi. Il nome del file completo deve essere inferiore a 260 caratteri, e il nome della directory deve essere inferiore a 240 caratteri.”

In sostanza il compilatore di Visual Studio non riesce a generare il codice compilato in quanto scrive i file temporanei in una directory che è più lunga di 260 caratteri (e questo è un limite di Windows). Questo capita quando il nostro progetto si chiama con identificativo troppo lungo. Inoltre c’è da sapere che durante la compilazione Visual Studio copia dei files nella directory “C:\Users\[nomeutente]\AppData\Local\Temp\WebsitePublish” che di per sè è già lunga abbastanza.

La soluzione a questo problema è in realtà semplice, si tratta di dire al compilatore di generare i files temporanei altrove.
Per farlo basta editare il file .pubxml (presente nella cartella del progetto \App_Data\PublishProfiles ) aggiungendo come prima riga al primo gruppo <PropertyGroup> presente nel file (dove [nomesolution] è da sostituire con un nome a piacimento:

<IntermediateOutputPath>..\Temp\[nomesolution]\</IntermediateOutputPath>

ATTENZIONE: non modificare il file website.publishproj nella root della solution il quale sembra del tutto simile al precedente ma non va modificato.

A questo punto la compilazione dovrebbe andare liscia generando i files temporanei in una cartella chiamata \Temp nella wwwroot.

NOTA: Potrebbero sorgere dei problemi in fase di compilazione dove nella cartella generata vengano inclusi dei files di una compilazione fallita precedentemente (ad esempio files rimossi, modificati, etc). Se notate stranezze simili il mio consiglio è quello di chiudere Visual Studio, accedere alla cartella C:\Users\[nomeutente]\AppData\Local\Temp e cancellarne tutto il contenuto. Alcune cartelle e/o files chiederanno conferma, altre non si potranno cancellare. Bypassate andando oltre. Questa procedura cancellerà tuti i files temporanei di Visual Studio resettando di fatto la compilazione.

Differenze prestazionali tra InvokeRepeating e StartCoroutine in Unity

E’ chiaro che alcune funzioni di Unity siano state sviluppate più come “utilities mordi e fuggi” che vere e proprie funzioni ottimizzate.

Una di queste è sicuramente InvokeRepeating che permette di chiamare un metodo standard ogni tot secondi (e con un delay di partenza). Questa funzione però, se analizzata con Reflector, espone una problematica principale: si basa sulla Reflection che, a runtime, indubbiamente è un processo MOLTO lento e dispendioso. Per questo motivo il suo uso va effettivamente evitato.

In sostituzione a InvokeRepeating possiamo facilmente usare le Coroutines che invece sono state sviluppate e rese disponibili proprio per ottimizzazioni di questo tipo. Sento già i puritani parlare di “Coroutine sono il male” parlando di chiamata di funzioni nella FixedUpdate, Time.deltaTime, etc etc. ALT! Non è questo il post in cui parlaremo delle prestazioni delle Coroutine.

Quindi, la nostra funzione:

    InvokeRepeating("Fire", 2.0f, 0.5f);

Diventa:

...
StartCoroutine("StartFireSequence_Enumerator");
...

IEnumerator StartFireSequence_Enumerator()
{
        yield return new WaitForSeconds(2.0f);
        while (true)
        {
            Fire();
            yield return new WaitForSeconds(0.5f);
        }
}