Rysunek 1. (c) pokazuje obraz testowy zrekonstruowany tylko ze spektrum MAGNITUDE. Można powiedzieć, że wartości natężenia pikseli o niskiej częstotliwości są stosunkowo większe niż pikseli o wysokiej częstotliwości.
Rysunek 1. (d) pokazuje obraz testowy zrekonstruowany tylko ze spektrum FAZA. Można powiedzieć, że wartości intensywności pikseli o wysokiej częstotliwości (krawędzie, linie) są stosunkowo większe niż pikseli o niskiej częstotliwości.
Dlaczego ta magiczna sprzeczność zmiany (lub wymiany) intensywności występuje między obrazem testowym zrekonstruowanym tylko z widma MAGNITUDE a obrazem testowym zrekonstruowanym tylko z widma FAZA, które połączone razem tworzą oryginalny obraz testowy?
clc;
clear all;
close all;
i1=imread('C:\Users\Admin\Desktop\rough\Capture1.png');
i1=rgb2gray(i1);
f1=fftn(i1);
mag1=abs(f1);
s=log(1+fftshift(f1));
phase1=angle(f1);
r1=ifftshift(ifftn(mag1));
r2=ifftn(exp(1i*phase1));
figure,imshow(i1);
figure,imshow(s,[]);
figure,imshow(uint8(r1));
figure,imshow(r2,[]);
r2=histeq(r2);
r3=histeq(uint8(r2));
figure,imshow(r2);
figure,imshow(r3);
W linii
mag1=abs(f1);
pozostawiasz całkowitą intensywność obrazu bez zmian (przetestuj to, sumując intensywności na wszystkich pikselach). Odrzucenie informacji fazowej w przestrzeni Fouriera prowadzi po prostu do przestrzennej redystrybucji intensywności w przestrzeni rzeczywistej, tak że r1 będzie miał taką samą całkowitą wnikliwość jak i1.W linii
phase1=angle(f1);
normalizujesz amplitudy każdego piksela (w przestrzeni Fouriera) do 1, więc całkowita intensywność obrazu zostanie zmieniona. Ponieważ faza przenosi dużą część informacji przestrzennej obrazu, główne cechy obrazu są jednak zachowane.źródło