Biomedical Imaging

Il sistema di acquisizione e di elaborazione delle immagini è composto da diversi blocchi, che a grandi linee ricalcano quello dei segnali.

In particolar modo abbiamo:

1°BLOCCO: Fase di formazione dell’immagine.

Comprende tutto il set up per l’acquisizione e la relativa digitalizzazione dell’immagine.

Quindi in base alla particolare tecnica a cui si fa riferimento, ci sarà un’apparecchiatura specifica, un meccanismo, un principio fisico diverso su cui si basa la modalità di imaging. Così l’immagine viene acquisita e digitalizzata.

2°BLOCCO: fase di enhancement.

Comprende tutti gli steps necessari per migliorare la qualità dell’immagine (in questo aspetto l’enhancement è simile al blocco di pre-processing per quanto riguarda l’elaborazione dei segnali). Infatti in questa fase è possibile applicare alcune tipologie di filtri per migliorare il contrasto e la luminosità dell’immagine, eliminare rumori ed artefatti. A parte questa funzione che è in comune con l’elaborazione dei segnali, nella fase di enhancement nell’imaging sono comprese anche tutte le procedure per la calibrazione, registrazione, trasformazione, quindi procedure di manipolazione specifiche per le immagini.

3°BLOCCO. Fase di visualizzazione, analisi e management. A valle dell’enhancement l’utente può decidere di visualizzare le immagini che ha acquisito, analizzarle oppure, nella fase di management può fare operazioni di compressione, memorizzazione, condivisione, archiviazione/accesso, trasmissione delle immagini.

Gli standard di memorizzazione definiscono che cosa devono avere i dati e, all’interno di un file, quale parte del file contiene informazioni relative all’acquisizione e quale parte contiene dati veri e propri specifici sia nel caso dei segnali che delle immagini. Quindi quando si parla di memorizzazione si fa riferimento ad una sorta di regole che indicano come devono essere memorizzati i dati. Questo serve per avere un formato unico, per favorire l’interoperabilità, perché altrimenti ci sarebbero difficoltà a lavorare con apparecchiature che vanno a salvare i dati ognuna in formato diverso.

Nella fase di analisi, prima ancora di memorizzare l’immagine e di visualizzarla, l’utente può decidere di effettuare delle operazioni di estrazione di informazioni dall’immagine.

TECNICHE DI IMAGING:

Nell’ambito della medicina le tecniche di imaging sono tantissime e molto diffuse, perché consentono di avere informazioni preziose per la diagnosi o per il monitoraggio di un trattamento terapeutico. Una prima classificazione può essere fatta in base a quella che è la modalità che utilizza la tecnica. Esistono infatti Tecniche che utilizzano le radiazioni dello spettro elettromagnetico:

  • PET: usa i raggi gamma. Metodica diagnostica in medicina nucleare
  • Termografia: usa le radiazioni infrarosse, radiazioni a più bassa energia rispetto ai raggi gamma
  • TC E RADIOGRAFIA: usano i raggi X

 

Tecniche che usano le onde sonore e nello specifico gli ultrasuoni:

  • ECOGRAFIA
  • Tecniche che usano fasci di elettroni
  • MICROSCOPIA ELETTRONICA

DIFFICOLTA’ DI ACQUISIZIONE DELLE IMMAGINI BIOMEDICHE

  • Accessibilità di organi e tessuti da esaminare
  • Variabilità delle informazioni
  • Artefatti fisiologici ed interferenze
  • Limitazioni in termini di energia

Sono simili a quelle viste per i segnali. C’è prima di tutto una variabilità tra gli oggetti e nello stesso oggetto, quindi c’è una intervariabilità e una intravariabilità. Analogamente possono insorgere problematiche relative alla presenza di artefatti fisiologici nonché ad altri disturbi legati alla metodologia di acquisizione.

Intervengono poi altri fattori come il fatto che bisogna garantire la sicurezza del paziente. Ogni tecnica mette in evidenza informazioni specifiche e diverse sulla stessa struttura esaminata.

PRINCIPIO FISICO DELLA RADIOGRAFIA:

I raggi X sono radiazioni ionizzanti ad elevata energia (lunghezza d’onda 10-8 cm). È una delle modalità di imaging più datate. Attraversano tessuti organici.

Come vengono prodotte le radiazioni? Vengono prodotte attraverso l’uso di tubi radiogeni. All’interno abbiamo due elettrodi, anodo + (caricato positivamente) e catodo – (caricato negativamente). Il catodo è di fatto costituito da un filamento di tungsteno avvolto a spirale, su cui viene fatta passare una corrente abbastanza elevata. Il passaggio di corrente provoca il riscaldamento di questo filamento e per effetto del riscaldamento vengono rilasciati degli elettroni. Questi elettroni vanno verso l’anodo in virtù della differenza di potenziale tra anodo e catodo. Questi elettroni in corrispondenza dell’anodo perdono parte della loro energia sotto forma di produzione di fotoni  e questi fotoni hanno delle lunghezze d’onda dei raggi gamma.

Perché gli elettroni perdono l’energia in corrispondenza dell’anodo? Ci sono due meccanismi che portano alla produzione dei raggi X:

  • Meccanismo Bremsstrahlung (letteralmente in tedesco significa “radiazione di fondo): l’elettrone che raggiunge l’elettrodo caricato positivamente ha una certa velocità; quando arriva all’anodo questa velocità diminuisce, viene rallentato per effetto delle cariche positive presenti sull’anodo. Questa diminuzione di velocità fa sì che ci sia una diminuzione della sua energia cinetica, e questa energia che perde viene persa sotto forma di radiazioni gamma, quindi di energia elettromagnetica.
  • Il secondo meccanismo è rappresentato da quella che viene chiamata radiazione caratteristica: l’elettrone che proviene dal catodo può colpire un elettrone dell’anodo che si trova vicino al nucleo, quindi ad un livello energetico basso, e fa sì che questo elettrone venga espulso. Poiché l’anodo ha perso un elettrone vicino al nucleo, gli elettroni che si trovano a livelli energetici più alti perdono la loro energia sotto forma di radiazione gamma, per passare ad un livello a più bassa energia più vicino al nucleo (perché ricordiamo che l’atomo preferisce sempre stare in una configurazione a minima energia). Quindi passando da un livello energetico maggiore ad uno minore, la differenza di energia che viene persa dall’elettrone viene emessa sotto forma di radiazioni gamma.

Le caratteristiche dei raggi X:

L’energia del fascio di raggi X dipende dalla velocità degli elettroni, maggiore è la velocità degli elettroni maggiore sarà l’energia del fascio e la profondità di penetrazione del fascio. Per aumentare l’energia del fascio è necessario aumentare la velocità dell’elettrone, che a sua volta viene aumentata incrementando la differenza di potenziale tra anodo e catodo.

L’intensità dei raggi X dipende dal numero di elettroni che vengono emessi dal catodo e vanno a colpire l’anodo, perché più elettroni vengono emessi, più fenomeni ci saranno, più aumenta il numero di raggi X prodotti. È possibile aumentare il numero di elettroni andando ad aumentare l’intensità di corrente, quindi riscaldando di più il filamento di tungsteno.

Formazione dell’immagine radiografica:

Dipende non solo dalle caratteristiche dei raggi, ma soprattutto dall’attenuazione che i raggi subiscono nell’attraversare la struttura in esame. Generalmente nell’interazione tra raggi X e materia sono due i fenomeni che prevalgono: assorbimento e diffusione. La diffusione di fatto si ha quando la radiazione incidente su una superficie viene riflessa in tutte le possibili direzioni.

L’assorbimento invece è regolato da una legge che valuta l’intensità finale della radiazione in uscita dalla materia: l’intensità della radiazione finale è uguale all’intensità della radiazione che colpisce la struttura per una funzione esponenziale dove all’esponente abbiamo due parametri µ e d, dove µ è il coefficiente di assorbimento e d è la distanza.

Ifinale= Iiniziale . e-µd

Chiaramente trattandosi del corpo umano quei parametri µ e d non sono costanti. Ma a noi basta sapere che esiste questa relazione per cui l’intensità della radiazione, a causa dell’assorbimento, decresce, e questa diminuzione dipende in particolar modo dal coefficiente di assorbimento e dalla distanza che deve attraversare il fascio.

PRINCIPIO FISICO DELLA TERMOGRAFIA

La termografia e in particolar modo la termografia ad infrarossi è una metodica di imaging di tipo non invasivo. Essa non si basa sull’interazione di un certo tipo di radiazione con la materia, ma di fatto è basata sul principio della rilevazione della quantità di radiazione elettromagnetica emessa dal corpo in funzione della temperatura.

Ricordiamo infatti che qualsiasi corpo che si trova alla temperatura superiore allo zero assoluto, in virtù della sua temperatura, emette delle radiazioni in tutto lo spettro elettromagnetico. La differenza rispetto al sensore di temperatura è che nel caso del sensore la misura è puntuale, cioè il sensore fornisce in uscita un unico valore di temperatura, mentre nella termografia l’acquisizione viene effettuata da una termocamera che, tramite dei sensori ottici, acquisisce la radiazione termica solo nella banda dell’infrarosso. In uscita il sensore restituisce l’immagine termografica. Essa è una sorta di mappa di calore, perché ad ogni valore di temperatura che viene rilevato nelle diverse zone viene associato un colore. Quindi il principio fisico è uguale a quello dei sensori di temperatura, però in questo caso poiché si utilizza una termocamera, non si acquisisce la radiazione proveniente da un solo punto, ma da una struttura estesa, per cui otteniamo delle immagini che mostrano la distribuzione della temperatura lungo delle coordinate spaziali.

La termocamera viene posta ad una certa distanza dal soggetto, il soggetto non riceve nessuna radiazione e la termocamera è collegata al pc per la visualizzazione ed elaborazione dell’immagine. La termocamera costa molto perché deve avere dei sensori ottici che devono essere sensibili alle radiazioni dell’infrarosso.

Nell’ambito della medicina questa tecnica viene usata in vari settori. Ci sono per es. delle evidenze che dimostrano una sensibilità abbastanza elevata di questa tecnica nella rilevazione del tumore al seno. Quindi: la termografia ad infrarossi è uno strumento di studio di funzioni fisiologiche legate al controllo della temperatura cutanea. Essa oltre ad essere una metodica non invasiva, non implica l’invio di onde elettromagnetiche al paziente in esame.

PRINCIPIO FISICO DELL’ECOGRAFIA:

L’ecografia si basa sulla recezione degli echi degli ultrasuoni (US) riflessi. Cioè sugli echi prodotti dalla riflessione di un fascio di ultrasuoni che attraversa organi e tessuti. Gli US sono onde sonore meccaniche che quindi hanno bisogno di un mezzo di propagazione, e hanno delle frequenze molto elevate al di sopra dell’udibile ( > 20 kHz). In questo caso si rilevano le radiazioni che vengono riflesse in seguito all’interazione tra radiazione e materia.

Nello specifico la velocità di propagazione dell’onda sonora dipende dalla densità del mezzo e dalle proprietà elastiche del mezzo. Nel caso degli US abbiamo che essi si propagano meglio nell’acqua piuttosto che nell’aria, e infatti i tessuti più esaminabili con ecografia sono tessuti molli. In generale ogni onda sonora nel percorso di propagazione può incontrare una certa resistenza, detta impedenza acustica, ed è proprio in virtù di essa che c’è il fenomeno della riflessione e quindi la formazione degli echi. In particolar modo l’impedenza acustica Z dipende dalla densità del mezzo ρ e dalla velocità del suono nel mezzo c e si misura in Rayl.

Z= ρ C

La produzione di US è data dall’effetto piezoelettrico inverso. In cosa consiste? Abbiamo un cristallo piezoelettrico ai capi del quale viene applicata una certa differenza di potenziale; questa determina una ridistribuzione delle molecole che compongono il cristallo. Nel momento in cui cessa la differenza di potenziale, le molecole ritornano nella loro posizione originale e questo provoca una sorta di vibrazione nel cristallo. Questa vibrazione di fatto porta alla produzione di queste onde.

La rilevazione degli echi invece avviene per mezzo dell’effetto piezoelettrico diretto, perché l’US tornando indietro mette in vibrazione il cristallo, andandone a deformare la struttura, questo provoca una perturbazione dell’equilibrio delle molecole e quindi lo sviluppo di una differenza di potenziale misurabile e correlata all’onda che l’ha determinata.

Interazioni US e materia:

Abbiamo detto prima che la propagazione dell’onda attraverso il mezzo dipende dalle caratteristiche del mezzo, in particolar modo dall’impedenza dello stesso mezzo. Nello specifico un fascio US nel momento in cui interagisce con il mezzo può subire processi di:

  • Trasmissione: quindi prosegue nel suo percorso
  • Rifrazione: l’onda torna indietro con un angolo diverso rispetto all’angolo di incidenza. Essa è responsabile degli artefatti presenti nell’immagine ecografica
  • Riflessione: l’onda torna indietro con lo stesso angolo dell’onda incidente

Vediamo da che cosa dipendono questi fenomeni:

l’attenuazione aumenta all’aumentare della distanza che deve percorrere il fascio e aumenta anche in relazione alla frequenza. Inoltre quando i materiali da attraversare sono diversi si avrà una certa interfaccia e maggiore è la differenza di impedenza tra i due mezzi, maggiore sarà la riflessione.

In particolare: la sonda durante il suo funzionamento impiega l’1% del tempo per emettere piccoli pacchetti di US; per il restante tempo resta in attesa della recezione degli echi.

La ricostruzione dell’immagine si basa poi sugli echi rilevati dalla sonda e in particolar modo si basa sul ritardo con cui arrivano gli echi. Gli echi che arrivano prima sono quelli che sono stati riflessi prima, mentre gli echi che arrivano dopo sono quelli che sono stati riflessi dopo, quindi sono arrivati ad una profondità di penetrazione maggiore.

Ricostruzione delle immagini

Esistono varie modalità anche in base al tipo di sonda. La prima modalità, ormai poco usata tranne che in qualche ambito, è la modalità A-mode, dove A sta per amplitude (ampiezza). In questo caso gli echi vengono visualizzati in modo monodimensionale: l’intensità degli echi viene rappresentata con dei picchi e la distanza tra i vari echi rispecchia il ritardo di arrivo.

La modalità B-mode dove B sta per brightness (luminosità). In questo caso gli echi sono sempre riportati in sequenza, ma l’intensità degli echi viene rappresentata non da picchi ma dalla scala di grigio. Esistono poi altre modalità più complesse che tengono in considerazione anche il tempo, quindi permettono l’acquisizione di immagini in modo dinamico come la B-mode real time.

Risoluzione spaziale dell’ecografia:

Per quanto riguarda la risoluzione spaziale dell’ecografia si fa riferimento a due tipi di risoluzione:

  • Risoluzione assiale: capacità di distinguere due punti lungo l’asse y, ovvero la profondità. Questo tipo di risoluzione dipende dalla frequenza della radiazione incidente, perché maggiore è la frequenza maggiore è la profondità di penetrazione
  • Risoluzione laterale: capacità di distinguere come separati due punti che si trovano sul piano x-z quindi larghezza e spessore, e in questo caso la risoluzione dipende dalla dimensione dei cristalli.

Strumentazione:

  • sonda che è sia generatore del segnale che ricevitore
  • Sistema di visualizzazione
  • sistema di controllo per la generazione degli us e per la ricostruzione dell’immagine a partire dagli echi e dei ritardi recepiti

ACQUISIZIONE DELLE IMMAGINI:

Per quanto riguarda la parte della FORMAZIONE delle immagini, noi ,esaminando alcune di queste tecniche ,abbiamo visto come avviene l’acquisizione delle immagini.

Questi sistemi di acquisizione sono di tipo

  • Analogico: come la radiografia tradizionale;
  • digitale: in altri casi, come nella TC, l’immagine che viene generata è già digitale cioè abbiamo dei sensori che permettono l’acquisizione digitalizzata delle immagini. Questi sensori sono una sorta di matrice di dispositivi, e ognuna di questi dispositivi va a rilevare l’energia luminosa che colpisce la sua superficie. Quindi di fatto si ottiene già un’immagine discreta. L’immagine complessiva viene data dal contributo della radiazione rilevata da ognuno di questi elementi.

Vantaggi dell’utilizzo della tecnologia digitale:

  • Per prima cosa nel momento in cui è necessario fare la memorizzazione, la trasmissione dei dati, essi vanno digitalizzati.
  • Altro vantaggio, nel caso delle immagini, è che è possibile usare delle tecniche di elaborazione, applicando delle tecniche numeriche, per migliorare la qualità delle immagini. Questo è possibile oltre che nella fase di elaborazione anche nella fase di acquisizione.
  • È possibile ottenere delle immagini in 3D

La digitalizzazione delle immagini consta di alcune fasi che sono il campionamento e la quantizzazione.

Il campionamento è la digitalizzazione delle coordinate spaziali x e y. Esempio di immagine monocromatica: l’immagine è una funzione dove la variabile dipendente è l’intensità dei vari punti dell’immagine e le variabili indipendenti sono le coordinate x e y, quindi, nel caso dell’immagine monocromatica cioè un’immagine in scala di grigi, è un segnale bidimensionale. I livelli di grigio variano in funzione delle coordinate x e y. Quindi il campionamento consiste nella digitalizzazione delle coordinate x e y

La quantizzazione consiste nella digitalizzazione dei valori di intensità dell’immagine.

In particolar modo il risultato del processo di campionamento è una matrice. La matrice è un insieme di n righe e di n colonne dove righe e colonne sono occupate da dei coefficienti, cioè da numeri. La matrice infatti è una struttura di dati formata da righe e colonne dove abbiamo dei numeri per ogni posizione della riga e per ogni posizione della colonna.

Quindi questa possiamo definirla come la rappresentazione matematica dell’immagine che equivale ad una rappresentazione grafica data da una griglia quindi una matrice di punti in cui ogni punto avrà un determinato valore di intensità e si troverà in una specifica posizione di coordinate x e y. Questi punti vengono chiamati pixel. Quindi con il campionamento si va a transizionare le due coordinate spaziali in tanti punti e ogni punto avrà uno specifico valore di intensità.

Con la quantizzazione invece quei punti (pixel) che costituiscono la nostra immagine non assumeranno più tutti i possibili valori ma assumeranno solo dei valori discreti, cioè determinati valori. E in particolar modo, definito un certo insieme discreto L di grigio, supponiamo ad es.8, il numero di bit per rappresentarlo è 3 perché L= 2k dove K è il numero di bit. Quindi se noi parliamo di un’immagine a 5 bit per es. significa che stiamo definendo un’immagine che ha 25 livelli di grigio ovvero 32 livelli di grigio. Questo significa che ogni pixel potrà assumere 32 possibili valori di grigio che vengono codificati tra 0 e 232. La dimensione complessiva dell’immagine è data dal prodotto del numero di colonne per il numero di righe per il numero dei bit necessari per codificare i livelli delle intensità:

M x N x kbit

Quindi un pixel che caratteristiche avrà? Avrà le coordinate spaziali e il valore di intensità.

La scelta del numero dei livelli della frequenza di campionamento ovvero come andare a campionare l’intervallo della x e della y hanno degli effetti sulla qualità dell’immagine. Il teorema di Shannon che abbiamo visto per i segnali vale anche per le immagini, ovvero: i parametri scelti per la digitalizzazione delle immagini devono essere scelti in maniera opportuna e in particolar modo vanno scelti in maniera tale da evitare la perdita di informazioni significative.

Vediamo questo che cosa significa nel caso delle immagini:

partiamo da una sequenza di immagini di cui consideriamo prima il campionamento. La prima immagine ha 256 righe e 256 colonne; le immagini successive a questa fanno riferimento invece a dei valori via via decrescenti. Quello che notiamo è che, via via che si passa da una immagine alla successiva, la risoluzione peggiora. Quindi le dimensioni della matrice, cioè gli intervalli di campionamento degli assi spaziali, devono essere scelti in maniera opportuna, facendo un buon compromesso tra l’eccesso di numero di intervalli e il rispetto del limite minino che ci garantisca di ricostruire l’immagine.

Esaminando invece la quantizzazione vediamo una sequenza di immagini in cui notiamo cosa succede quando si ha una diminuzione del numero di livelli di grigio, partendo da 2 bit e così via.

Nel caso delle immagini a colori cosa succede? Una delle codifiche che può essere utilizzata è la RGB (Red Green Blu), cioè il colore dell’immagine viene considerato come combinazione delle tre componenti fondamentali. Quindi l’immagine finale, che è sempre la solita matrice costituita da un certo numero di pixel che si trovano in determinate coordinate spaziali e hanno determinati valori di intensità, sarà data dalla combinazione di tre immagini e quindi di tre gruppi di matrici, una che contiene tutte le tonalità del blu, una tutte le tonalità del verde e una tutte le tonalità del rosso.

TECNICHE DI ELABORAZIONE DELLE IMMAGINI

Vedremo ora alcune tecniche di elaborazione dell’immagine,in particolar modo vedremo alcune tipologie di filtri per migliorare la qualità dell’immagine e poi cercheremo di capire in cosa consiste la segmentazione.

L’elaborazione delle immagini è molto più complessa rispetto all’elaborazione dei segnali, perché si tratta di segnali multidimensionali, quindi non approfondiremo la parte relativa agli operatori matematici ma ci fermeremo alla descrizione del principio della tecnica con qualche esempio.

In generale le tecniche di elaborazione che possono essere applicate alle immagini per migliorare la qualità o analizzarne parametri specifici possono essere suddivise in 3 gruppi:

  • Operazioni puntuali,
  • Operazioni locali,
  • Operazioni globali.

Operazioni puntuali

Partiamo dal presupposto che facciamo sempre riferimento all’immagine sotto forma di matrice o griglia di pixel, per cui quando parliamo di coordinate sappiamo che ci stiamo riferendo all’elemento della griglia o della matrice.

Nel caso delle operazioni puntuali, queste tecniche di elaborazione vanno a modificare il singolo pixel considerando come input il pixel stesso. Quindi, preso un pixel generico della mia griglia, vado a modificare quel valore senza far riferimento a quello che c’è intorno, quindi al resto dell’immagine, ma mi concentro soltanto su quell’elemento.

Quindi se la mia operazione è un filtraggio, io modifico il valore di quel punto solo in base alle caratteristiche del punto stesso, senza tenere in considerazione le informazioni dei punti vicini.

Operazioni locali

In questo caso invece la mia tecnica di elaborazione va a modificare il valore del singolo pixel andando però ad esaminare le caratteristiche dei punti vicini. Quindi all’interno della mia griglia di punti io scelgo una certa regione e modifico tutti i punti di quella regione non solo a livello locale ma considerando anche le caratteristiche di tutti i punti che appartengono a quella regione.

Operazioni globali

La modifica di ogni pixel dipende da tutti gli altri pixel che compongono l’immagine, quindi si considera tutta la matrice.

Questa classificazione vale come principio di funzionamento delle diverse tecniche di elaborazione, a prescindere dallo scopo della tecnica stessa.

Nello specifico la regolazione di luminosità e contrasto può essere necessaria per migliorare la visualizzazione dell’immagine perché può accadere che in fase di acquisizione l’immagine ottenuta sia scura o i contorni delle diverse aree di interesse siano sfumati. È possibile modificare la regolazione di luminosità e contrasto in due modi:

  • trasformazione lineare: significa che i valori di intensità dell’immagine, sia quelli più scuri che quelli meno scuri, vengono modificati allo stesso modo;
  • trasformazione non lineare: significa invece modificare in un modo le zone più scure dell’immagine e in un altro modo le zone più chiare. Cioè faccio un’operazione non uguale su tutti i pixel.

In base alla tipologia di immagine si può decidere che trasformazione effettuare.

Una tecnica che mi permette di regolare la luminosità e il contrasto è rappresentata dall’istogramma, cioè è basata sul calcolo dell’istogramma dell’immagine. Significa andare a contare quante volte si ripetono nell’immagine i possibili livelli di grigio (in caso per es. di immagine monocromatica) che sono presenti nella stessa. Es supponiamo di avere 5 livelli di grigio, andiamo a contare punto per punto nella nostra matrice quante volte ogni valore di grigio compare e costruiamo l’istogramma dell’immagine.

In questo modo con l’esame dell’istogramma noi ci rendiamo conto se la distribuzione di questi livelli di grigio è uniforme o se è spostata verso tonalità più scure o più chiare, se è ampia o stretta. Quindi dall’esame della distribuzione dell’istogramma ottengo informazioni relative alla luminosità e contrasto e modificando l’istogramma vado a modificare la distribuzione di questi livelli di grigio e automaticamente modifico contrasto e luminosità dell’immagine.

Es. nel caso di un’immagine che ha poco contrasto avremo un istogramma che ci dice che tra tutti i possibili livelli di grigio quest’immagine assume soltanto pochi livelli ,che sono i più chiari. In questo caso un’operazione che può essere fatta sull’istogramma è quella di andare ad espandere questa distribuzione, cioè vado a redistribuire, allargare i diversi livelli di grigio, senza aggiungerne altri. A questo nuovo istogramma corrisponderà un’immagine con un numero maggiore di livelli di grigio e quindi un migliore contrasto.

Altra tecnica è l’inversione di contrasto che consiste nell’andare a calcolare l’immagine negativa dell’originale, quindi tutti i pixel che hanno valore nero vengono rappresentati con il bianco e viceversa.Altre tecniche per migliorare la qualità dell’immagine sono le tecniche di filtraggio spaziale. Il principio di funzionamento dei filtri è simile a quello che avveniva per i segnali eeg. I filtri vanno a modificare il valore del pixel sfruttando le informazioni dei pixel vicini o di tutta l’immagine. Quindi sono operazioni di tipo locale o globale e non puntuali.

ANALISI DELL’IMMAGINE

Per la parte di analisi dell’immagine una delle tecniche ampiamente adottate in ambito biomedico è la segmentazione. È un processo che consente ad es. di separare un oggetto dallo sfondo dell’immagine o di individuare più componenti che sono presenti all’interno dell’immagine. Per es. se vogliamo contare il numero di cellule presenti nell’immagine visualizzata al microscopio, si applicano delle tecniche matematiche che vanno a separare quindi evidenziare la struttura che vogliamo contare rispetto allo sfondo e poi vanno a conteggiare quanti oggetti dello stesso tipo sono presenti nell’immagine.

Generalmente il modo più semplice per effettuare l’operazione di segmentazione ovvero di separazione di oggetti dallo sfondo o di oggetti diversi tra di loro è quello di andare a valutare le differenze di tonalità di grigio (in caso di immagine monocromatica), per cui andando a valutare l’intensità dei pixel si ricercano le differenze che ci consentono di separare un oggetto dall’altro. Ad esempio la segmentazione può essere usata per rilevare i bordi. Questo è possibile andando a cercare tutte le zone di discontinuità cioè quelle aree dell’immagine dove c’è un cambio repentino dei livello di grigio. Quindi la segmentazione capisce che c’è un bordo dove c’è una variazione netta del livello di grigio rispetto al livello di grigio dei pixel precedenti. Quindi tramite queste misure vengono estratti solo i bordi dell’immagine.

Altra applicazione della segmentazione è l’individuazione di regioni differenti tra di loro, e l’informazione che viene usata in questo caso per differenziare le regioni diverse dell’immagine è sempre data dai diversi livelli di grigio associati a queste strutture. Ad es. sostanza bianca, sostanza grigia e liquido cerebrospinale. Così si individuano le aree di interesse specifiche da studiare nell’ambito della nostra immagine. Quindi sono delle tecniche che permettono di elaborare l’immagine al fine di ottenere dei parametri quantitativi utili nell’ambito della diagnosi.

 

 

 

 

 

 

 

 

 

 

 

Potrebbero interessarti anche...