TECNOLOGIA RICOH THETA

Innovazione e divertimento nel mondo delle immagini.
La tecnologia RICOH fa da pioniere in un territorio inesplorato.

Tecnologia ottica che rende possibile l'aspetto sottile del corpo

La tecnologia ottica di tipo "folded optic", con lenti gemelle ultra compatte, rende possibile l'utilizzo di un corpo incredibilmente sottile.

Le immagini sferiche RICOH THETA sono realizzate con un design innovativo che utilizza lenti ultra compatte e ultra grandangolari sul lato anteriore e posteriore della fotocamera, catturando la luce ad un angolo di visuale che supera di gran lunga i 180 gradi di un'ottica fish eye e distribuisce quindi la luce ai sensori di immagine a sinistra e a destra, utilizzando due prismi a 90 gradi.

Anche con lenti gemelle, il THETA vanta un corpo sottile con soli 17,9 mm di spessore (THETA V, esclusa la sezione dell'obiettivo), grazie alla disposizione simmetrica delle ottiche fish eye di tipo folded.
Il design, non solo semplice ed elegante, presenta una distanza più ridotta tra le ottiche, il che consente un errore di parallasse estremamente minimo*1.

*1 Punto di vista differente di due fotocamere.

Gli obiettivi ultra compatti e ultra grandangolari sono progettati e ottimizzati in modo specifico per immagini sferiche.

Aumentare la risoluzione dell'intera immagine ad un livello uniforme è fondamentale per cucire due immagini con un minimo errore di parallasse e garantire un aspetto assolutamente naturale. Per ottenere questo risultato, è stato adottato un metodo di proiezione originale RICOH. Il rivestimento dell'obiettivo non solo copre lo spettro della luce visibile, ma anche lo spettro a infrarossi, che non è disponibile con ottiche per fotocamere medie. Poiché le caratteristiche della lunghezza d'onda e della dipendenza dell'angolo differiscono tra il centro e la periferia, può essere spesso difficile regolare gli obiettivi fish eye. Tuttavia, nonostante questa difficoltà, siamo riusciti a creare colorazioni uniformi in tutto il centro e ai margini, consentendo di ottenere una qualità dell'immagine bella e naturale.

Tecnologia di elaborazione delle immagini che produce immagini a 360 gradi

Kiyotaka Kitajima

Processo di creazione di immagini sferiche senza cuciture visibili

1. Elaborazione delle immagini

Innanzitutto, vengono utilizzati i dati immagine da due sensori immagine per condurre l'elaborazione di immagini di base. Successivamente, oltre all'elaborazione di immagini di base eseguita sulle fotocamere digitali più comuni, le immagini vengono elaborate per ottenere la luminosità e la colorazione appropriate dai due sensori di immagine. In particolare, la variazione di sensibilità individuale tra i due sensori di immagine viene corretta e la compensazione dell'esposizione viene applicata per ogni sensore di immagine in base a una scelta complessiva basata sulla luminosità rilevata nei dati di entrambe le immagini.

2. Stitching delle immagini

Successivamente, viene eseguito il processo di stitching su due immagini. Per ognuna delle due immagini, la funzione di corrispondenza pattern calcola il valore di offset tra l’immagine di riferimento e l’immagine di confronto in ogni area per rilevare la posizione di cucitura. Quindi, facendo riferimento alla posizione di cucitura rilevata e alle caratteristiche di ciascun sistema ottico, le due immagini vengono convertite nel formato immagine sferica. L’unione delle due immagini nel formato immagine sferica, genera una singola immagine sferica. In questo modo, la funzione di corrispondenza pattern rileva la posizione di cucitura e la applica ai parametri di conversione dell'immagine nel formato immagine sferica; il conseguente processo di cucitura dinamica consente lo stitching in tempo reale di due immagini.

1. Elaborazione delle immagini

Innanzitutto, vengono utilizzati i dati immagine da due sensori immagine per condurre l'elaborazione di immagini di base. Successivamente, oltre all'elaborazione di immagini di base eseguita sulle fotocamere digitali più comuni, le immagini vengono elaborate per ottenere la luminosità e la colorazione appropriate dai due sensori di immagine. In particolare, la variazione di sensibilità individuale tra i due sensori di immagine viene corretta e la compensazione dell'esposizione viene applicata per ogni sensore di immagine in base a una scelta complessiva basata sulla luminosità rilevata nei dati di entrambe le immagini.

2. Stitching delle immagini

Successivamente, viene eseguito il processo di stitching su due immagini. Per ognuna delle due immagini, la funzione di corrispondenza pattern calcola il valore di offset tra l’immagine di riferimento e l’immagine di confronto in ogni area per rilevare la posizione di cucitura. Quindi, facendo riferimento alla posizione di cucitura rilevata e alle caratteristiche di ciascun sistema ottico, le due immagini vengono convertite nel formato immagine sferica. L’unione delle due immagini nel formato immagine sferica, genera una singola immagine sferica. In questo modo, la funzione di corrispondenza pattern rileva la posizione di cucitura e la applica ai parametri di conversione dell'immagine nel formato immagine sferica; il conseguente processo di cucitura dinamica consente lo stitching in tempo reale di due immagini.

Immagine sferica

Nelle immagini sferiche, per assegnare le coordinate ad ogni posizione di pixel su una superficie sferica, viene utilizzato Mercator Projection.
In altre parole, considerando il nostro pianeta, con gli assi che rappresentano la latitudine e la longitudine, la superficie della Terra sarebbe bidimensionale.
Gli utenti possono utilizzare un'app dedicata per modificare il punto di vista mediante trascinamento del dito sull'immagine verso l'alto, verso il basso, a sinistra e a destra, nonché ingrandendo e riducendo l'immagine per visualizzare l'intera immagine sferica. Nell'app, l'immagine sferica viene mappata come texture per un oggetto sferico e specificando la direzione e l'angolo di vista, l'immagine sferica può essere visualizzata come se fosse incollata su una sfera.

Audio spaziale a 360° con video e audio sincronizzati

Per audio spaziale a 360° si indica la sincronizzazione tra audio e video riprodotti con un visualizzatore VR e le cuffie.
RICOH THETA V utilizza due tecnologie per ricreare le variazioni di campo acustico in base alla direzione di visione dello spettatore. In questo modo si ha una realtà virtuale più fedele e immersiva.

1. Registrazione dell'audio spaziale con THETA V - Ambisonics

1. Registrazione dell'audio spaziale con THETA V - Ambisonics

Ambisonics è una tecnologia audio tridimensionale che registra l'audio spaziale a 360° e ricrea la naturale direzionalità con un formato [Registrazione/Riproduzione]. Ambisonics converte le sorgenti audio in quattro segnali, ovvero il segnale base (W), il segnale a estensione anteriore/posteriore (X), il segnale a estensione sinistra/destra (Y) e il segnale a estensione superiore/inferiore (Z) per ricreare un campo sonoro con direzionalità. RICOH THETA V è dotata di più microfoni omnidirezionali che compongono la direzionalità a partire dalle sorgenti audio registrate, creando i quattro segnali WXYZ.
Il modello TA-1 è un microfono compatibile con Ambisonics che converte le sorgenti audio registrate nei quattro segnali WXYZ.
Poiché questo metodo consente di ruotare l'intero campo sonoro dopo la registrazione, il campo sonoro traccia il movimento anteriore/posteriore, sinistro/destro e superiore/inferiore delle immagini anche se il punto di vista delle immagini a 360° cambia, permettendo di registrare e riprodurre un audio molto vicino a quello della scena effettiva.

2. Riproduzione dell'audio spaziale con THETA V - HRTF (Head Related Transfer Function)

2. Riproduzione dell'audio spaziale con THETA V - HRTF (Head Related Transfer Function)

L'uomo riesce a identificare la differenza di volume tra le due orecchie e il ritardo con cui il suono le raggiunge in base alla direzione di arrivo. Comprendendo le variazioni dei due fattori, è possibile ricreare la sensazione di una sorgente audio che si muove in qualsiasi direzione durante la riproduzione.
La funzione HRTF esprime matematicamente (filtra) il valore caratteristico delle differenze menzionate sopra come dati audio. Combinando queste variazioni con la sorgente audio delle immagini registrate in modalità tridimensionale, la sorgente audio può essere spostata in direzione anteriore/posteriore, sinistra/destra e superiore/inferiore, come se le immagini a 360° seguissero il movimento della testa dell'utente.
Questa tecnologia viene utilizzata da RICOH THETA V e l'applicazione del filtro all'audio registrato consente di ottenere un senso di direzionalità e distanza simile alla scena reale.
* Poiché i dati HRTF variano in base al riverbero dovuto alla forma della testa, del corpo e dell'orecchio di ogni persona, non tutti gli utenti potrebbero avere la stessa sensazione.

Avvalendosi di queste due tecnologie, l'ambiente di riproduzione compatibile con il formato file dell'audio spaziale di RICOH THETA V può essere abbinato a un visualizzatore HMD o VR dotato di cuffie e funzione di tracciamento dei movimenti della testa per sincronizzare le immagini a 360° viste dall'utente con un audio a 360°, per una realtà virtuale di grande fedeltà audiovisiva.