Resumos
Como alternativa às técnicas fotográficas que utilizam sensores com milhões de pixels, é possível usar uma câmera com apenas um pixel para registrar imagens. Para isso, é necessário iluminar a cena com um feixe luminoso espacialmente modulado e medir a intensidade da luz espalhada com um sensor de pixel único. Este artigo apresenta como uma imagem digital é produzida usando um sistema de baixo custo para montar uma câmera de pixel único. A técnica consiste em se obter uma imagem no domínio de Fourier e convertê-la no domínio espacial usando um algoritmo de transformada rápida de Fourier. O experimento proposto pode ser conduzido por estudantes de graduação em disciplinas de física experimental avançada. Os resultados mostram que o reconhecimento da cena ocorre a partir de 20% do número total de medidas, demonstrando seu potencial em aplicações para sistemas de imageamento com compressão de dados.
Palavras-chave: Câmera de pixel único; fotografia fantasma; transformada de Fourier bidimensional; imageamento
As an option to photographic techniques that use sensors with millions of pixels, it is possible to use a camera with only one pixel to record images. For this, it is necessary to illuminate a scene using spatially modulated light and measure the intensity of the scattering with a single-pixel sensor. This article presents how a digital image is generated using a low-cost system to assemble a single-pixel camera. The technique consists of obtaining an image in the Fourier domain to convert it into the spatial domain using a fast Fourier transform algorithm. The proposed experiment can be conducted by undergraduates in advanced experimental physics courses. The results show that scene recognition starts at 20% of the total number of measurements, demonstrating its potential applications for compressed sensing imaging systems.
Keywords Single-pixel camera; ghost imaging; two-dimensional Fourier transform; imaging
1. Introdução
Na atualidade, há uma infinidade de dispositivos e tecnologias baseadas em aplicações da óptica. Apenas para citar alguns exemplos, destacam-se LASERs, transmissores e receptores de sistemas de comunicação, telas de LED e fototerapias. Estas aplicações impactam profundamente a humanidade, sustentando a Óptica como um dos ramos mais promissores da Física. Contudo, apesar desta notória relevância da Óptica no desenvolvimento científico e tecnológico, é cada vez mais escassa a presença de disciplinas que abordam este tema nos cursos de Bacharelado em Física no Brasil. Uma rápida avaliação documental dos cursos de graduação nos permite exemplificar esta afirmação. Enquanto na matriz curricular de alguns cursos não figura disciplinas específicas sobre óptica [1, 2, 3], em outras, a disciplina é ofertada como optativa [4, 5, 6]. Exceção se encontra no curso de Bacharelado em Física ofertado pela USP-São Carlos [7], a qual oferece uma habilitação em óptica e fotônica baseada em uma matriz curricular repleta de disciplinas específicas sobre o tema.
A parte desta exceção, de maneira geral, os conteúdos de óptica são tratados dentro de disciplinas do ciclo básico, tanto em aspectos teóricos quanto experimentais. Os livros adotados nestas disciplinas abordam tópicos como: luz e ondas eletromagnéticas, óptica geométrica, instrumentos ópticos, interferência e difração [8, 9]. Contudo, quando se compara estas bibliografias com livros textos adotados em disciplinas específicas de Óptica [10, 11, 12], fica evidente a ausência de conteúdos relevantes. Em geral, temas como propagação da luz, polarização, interferência e difração são tratados de forma mais aprofundada enquanto temas como formulação matricial para óptica geométrica, coerência, técnicas de espectroscopia e óptica de Fourier são temas exclusivamente presentes em livros textos utilizados em disciplinas específicas de Óptica. É diante desse contexto que apresentamos uma proposta didática e acessível de um experimento que explora mais uma tecnologia emergente da Óptica: uma câmera de pixel único. Nossa expectativa é que essa proposta possa ser usada em atividades de laboratório de óptica de maneira alternativa ou complementar às atividades usuais, se tornando um ponto de partida para abordar outros importantes temas da Óptica.
Na técnica convencional de produção de imagens, uma fotografia é gerada detectando a luz oriunda de uma região de interesse, uma cena. Para isso, é comumente utilizado algum modelo de detector espacialmente resolvido como um dispositivo de acoplamento de carga ou CCD (acrônimo para charge-coupled device [13]). De maneira simplificada, um detector CCD nada mais é do que um arranjo de pequenos sensores de luz espacialmente distribuídos, os pixels. Uma câmera fotográfica digital (ou mesmo a câmera de um celular) tipicamente possui um sensor CCD com milhões de pixels. A resolução máxima de uma imagem obtida com este tipo de sensor, diretamente associada com o nível de detalhes da imagem, é determinada por seu número de pixels. De maneira alternativa, o registro da imagem pode ser obtido iluminando a cena com luz espacialmente modulada e detectando a luz espalhada com um dispositivo de pixel único, um fotodiodo [14] ou uma fotorresistência [15], por exemplo. Recentemente têm-se demonstrado que aplicações com dispositivos de pixel único são capazes de superar diversas limitações das câmeras pixeladas convencionais [16]. Uma câmera de pixel único, por assim dizer, pode ser usada para produzir imagens multi-espectrais, imagens por difração de raios-X ou mesmo imagens tridimensionais [17, 18, 19]. A câmera de pixel único também surge como uma alternativa competitiva e de baixo custo para situações em que sensores pixelados se tornam excessivamente caros e experimentalmente inviáveis [16].
Neste artigo apresentamos como uma câmera de pixel único pode ser implementada sem utilizar equipamentos dispendiosos de um laboratório de pesquisa. Além de auxiliar entusiastas no entendimento do princípio de funcionamento desta promitente tecnologia, o experimento também pode ser considerado como uma proposta de prática de laboratório avançado em disciplinas oferecidas em cursos de graduação em Física. Da execução do experimento à análise de dados, é criada a oportunidade de se adquirir e consolidar competências nas áreas de instrumentação, eletrônica básica, programação e, é claro, óptica. Em particular, o desenvolvimento desta proposta propicia uma excelente ocasião para se introduzir a transformada de Fourier de uma função bidimensional [20], essencial na óptica de Fourier, e técnicas de processamento de imagens digitais [21], usualmente exploradas por microscopistas e astrônomos.
2. Descrição Teórica
2.1. Representação de uma imagem digital
Uma imagem digital é uma representação de uma imagem formada a partir da informação sobre a distribuição espacial de intensidade luminosa [22]. Toda imagem digital é composta por elementos da imagem, chamados de pixels, que indicam a intensidade da luz nas posições que formam a imagem. Assim, cada pixel corresponde a uma pequena região finita da imagem, tipicamente discretizada na forma de um arranjo retangular ordenado. A resolução de uma imagem é então determinada pela quantidade de linhas e colunas que compõem o arranjo. Então, usamos uma função bidimensional, tal como f = f(x,y), para representar uma imagem matematicamente, descrevendo o valor da intensidade luminosa f em cada posição (x,y) do pixel. Os possíveis valores de f são determinados pelo número de bits (n) usado para armazenar digitalmente a informação sobre a intensidade luminosa. Dessa forma o inteiro positivo n determina o número de bits por pixel ou a profundidade de cor da imagem. Portanto, f é um número inteiro no intervalo entre 0 e 2n−1, de acordo com o sistema digital binário. Para uma imagem com profundidade de cor de 8 bits, por exemplo, cada pixel é especificado por um dos 256 possíveis valores de f. Em seguida podemos estabelecer uma escala de intensidade para f associando os valores extremos, neste caso 0 e 255, para as posições com menor e maior intensidade luminosa, respectivamente.
Outro aspecto fundamental é que uma função bidimensional f pode ser usada para forma uma imagem definindo um mapa de cores, em que uma tonalidade é atribuída a cada valor de f. O mapa de cor mais comum é o de escala de cinza, com tonalidades da cor cinza variando da cor preta à branca. Esta escala simula a percepção visual na qual regiões com menor (maior) intensidade luminosa são mais escuras (claras). De fato, o olho humano possui milhões de células fotorreceptoras sensíveis a intensidade luminosa [23].
A Figura 1 simboliza esta representação numérica na composição de uma imagem digital. Com 13×16 pixels e mapa de tonalidade em escala de cinza, identificamos o personagem Mario como apresentado no jogo eletrônico Super Mario Bros de 1985 [24]. A profundidade de cor é de 8 bits e o valor de f é destacado em cada posição. A distribuição de f, dessa maneira, ocorre no domínio espacial, estabelecendo a intensidade em cada posição no espaço.
Representação de uma imagem de 13×16 pixels com profundidade de cor de 8 bits. O valor do pixel em cada posição (x,y) é um número inteiro entre 0, para regiões de menor intensidade (totalmente preta) e 255, para regiões de maior intensidade (totalmente branca).
A seguir apresentamos como esta representação pode ser usada para transformar imagens digitais a um outro domínio. Para não fugir do escopo do artigo não será discutido como estender esta representação para a composição de imagens digitais coloridas.
2.2. Transformada de Fourier bidimensional
A transformada de Fourier nada mais é do que um tipo particular de transformação matemática. Ela possibilita, entre outras coisas, produzir e processar imagens a partir de representações em diferentes domínios.
Considere uma imagem arbitrária de M×N pixels representada por uma função bidimensional f. A Transformada Discreta de Fourier (TDF) de f é definida por
sendo a operação inversa, a Transformada Discreta Inversa de Fourier (TDIF), dada por
A função complexa F é uma representação de f no domínio de Fourier (ou domínio da frequência). Com o auxílio da fórmula de Euler, eiθ = cos(θ) + isen(θ), fica claro que a equação (2) é uma combinação de funções harmônicas com diferentes coeficientes F para cada par de frequências (u,v). Como ilustrado graficamente na Figura 2, a combinação de funções harmônicas pode ser usada para compor uma função arbitrária no domínio espacial, uma interpretação direta da equação (2).
Representação da imagem no domínio espacial como uma composição de funções harmônicas. Cada senoide de frequências (ui,vi), ponderada pelo respectivo coeficiente F(ui,vi) contribui para a formação da imagem f.
Por se tratar de uma função complexa, a contribuição de F em cada termo na soma é melhor percebida ao se definir a densidade espectral, calculada pelo módulo de F. Regiões onde a densidade espectral é mais intensa (com maior módulo) mostram uma maior contribuição de harmônicos com determinadas frequências. A Figura 3 mostra a representação de uma imagem no domínio espacial e sua respectiva densidade espectral obtida por TDF.
Exemplo de uma imagem no domínio espacial com M×N pixels e sua respectiva densidade espectral.
Para posterior processamento da imagem, como uma aplicação de filtro passa banda, por exemplo, é comum reescalar a densidade espectral mudando a origem das frequências para o centro da imagem transformada. Assim, cada representação espectral exibe a componente de frequência zero posicionada no centro, as frequências positivas localizadas no primeiro quadrante e as frequências negativas localizadas no terceiro quadrante. É importante ressaltar que a permuta entre quadrantes não altera a operação de transformação da imagem para o domínio espacial [22].
Uma vez que a imagem no domínio espacial é uma função real, a parte real de F é simétrica e sua parte imaginária é anti-simétrica. Dessa forma a densidade espectral de uma imagem transformada apresenta simetrias em relação à origem (veja a Figura 3). Esta condição é verificada pelas seguintes igualdades:
e
Podemos então explorar estas redundâncias no momento de obter os coeficientes: apenas os coeficientes associados com as frequências do primeiro e segundo quadrantes são usadas para gerar todo o espectro de Fourier.
Existem várias maneiras de implementar computacionalmente as transformações (1) e (2). Um dos algoritmos mais conhecido é a Transformada Rápida de Fourier (Fast Fourier Transform – FFT), sendo relativamente eficiente e de fácil implementação [22]. O código usado nas transformações das imagens é apresentado no Material suplementar.
2.3. Captura das imagens
A Figura 4 mostra o diagrama esquemático da montagem experimental. A luz oriunda de um projetor é controlada por um computador que gera um padrão espacialmente modulado, Pm. Após ser espalhada pelo objeto, a luz detectada por um fotodetector produz um sinal proporcional à área iluminada, expresso como
Diagrama esquemático do experimento: um projetor (a) é usado para iluminar um objeto (b) e a luz espalhada é detectada com um único fotodiodo (c). Após uma sequência de medidas, estando o objeto iluminado pelos padrões de funções harmônicas (d), a imagem digital é obtida computacionalmente. Um conversor analógico-digital e uma plataforma Arduino compõem o sistema de aquisição de dados (DAQ) usado para registrar os valores medidos no computador de controle (e).
sendo R a distribuição da reflectividade superficial da cena iluminada. A dupla soma na equação (5) destaca a contribuição de toda a área iluminada, virtualmente dividida em M×N partes finitas em cada posição (x,y). A constante S0 representa o sinal devido à luz ambiente de intensidade constante e η é um parâmetro de proporcionalidade dependente das características do detector. Ficará claro que os valores reais de η e S0 são irrelevantes no processo de produção da imagem.
A obtenção da imagem por transformada de Fourier é possível para um padrão de iluminação harmônico, tal como
sendo a a intensidade média de iluminação e b o contraste. As variáveis u e v definem a frequência espacial do padrão de iluminação e assumem valores inteiros nos intervalos [0,M−1] e [0,N−1], respectivamente. Cada padrão de iluminação deve ser considerado como uma função harmônica bidimensional usada na composição da imagem no domínio espacial, como ilustrado na Figura 2.
Com a sequência de quatro detecções de mesma frequência mas com diferentes fases, a saber ϕ1 = 0, ϕ2 = π/2, ϕ3 = π e ϕ4 = 3π/2, define-se o sinal diferencial como
e, consequentemente, das equações (5) e (6) obtém-se
A equação (8) mostra que a reflectividade R e o sinal diferencial D estão relacionados pelas transformações (1) e (2). Ou seja, é possível obter R desde que D seja conhecido e vice-versa. Então, com uma sequência de quatro medidas, a componente espectral D(u,v) da imagem alvo é obtida. Fica claro que após iluminar a cena com todo o espectro de frequências espaciais, a imagem no domínio espacial (∝R) é reconstituída aplicando a TDIF. Note que o fator de proporcionalidade é suprimido normalizando os valores de R no intervalo estabelecido pela profundidade de cor.
Como a imagem final é uma função real, as equações (3) e (4) são usadas para eliminar as redundâncias nas medidas. Apenas as frequências dos quadrantes 1 e 2 são usadas para gerar o padrão, estabelecendo um total de 2MN medidas para reconstituir uma imagem de M×N pixels da cena iluminada. Após a aquisição dos dados, a imagem digital da cena é obtida computacionalmente usando um código no qual esteja implementado o algoritmo de FFT. Neste trabalho foram usadas as funções do pacote de processamento de imagens disponível em GNU Octave [25]. Versões simplificados dos códigos para a geração do padrão, aquisição de dados e produção da imagem são apresentadas nos Quadros 1 e 2 do Apêndice (veja o Material suplementar).
3. Aparato Experimental
Para realizar o experimento utilizamos como fotodetector um fotodiodo monolítico de silício com amplificador de transimpedância embarcado, um OPT101 (Texas Instruments) [26]. Com área ativa de 5,24 mm2, este modelo se destaca por possuir sensibilidade em ampla faixa espectral (de 300 nm a 1100 nm), responder linearmente a intensidade da luz incidente e possuir baixa corrente de escuro. Em torno do comprimento de onda de máxima sensibilidade, ∼850 nm, o sinal de saída é de 0, 6 V/μW, com realimentação interna de 1 MΩ. Por fim, o tempo de acomodação do sinal, com tolerância de 0,01%, é de 160μs [26].
Após a conversão do sinal analógico, o registro dos dados foi efetuado por um computador conectado via porta USB a uma plataforma Arduino (modelo Nano) com microcontrolador ATmega328 [27]. O sinal do fotodiodo foi convertido utilizando um conversor analógico-digital de 16 bits, um ADS1115 (Adafruit) [28]. Além da maior resolução em comparação com o conversor interno do Arduino, o ADS1115 possui um Amplificador de Ganho Programável (AGP) integrado, o qual permite um ganho de até 16 vezes no sinal de entrada. Tanto o ADS1115 quanto o OPT101 foram energizadas diretamente através da placa Arduino com d.d.p. de 5 V. Por fim, a comunicação entre o ADS1115 e o Arduino foi realizada pela interface I2C (Inter-Integrated Circuit) a uma taxa de 860 amostras/s. A Figura 5 mostra o esquema do circuito usado para detecção do sinal e registro dos dados. Considerando este esquema, o código em C++ para a plataforma Arduino é apresentado no Quadro 3. É importante destacar que os componentes eletrônicos para a aquisição dos dados podem ser comprados em lojas virtuais de eletrônicos a um custo total bastante acessível ( < R$100).
Esquema do circuito composto pela plataforma Arduino e o conversor analógico-digital ADS1115 usados no registro do sinal gerado pelo fotodiodo OPT101.
Para mostrar o funcionamento da técnica usamos como objeto alvo um boneco em PVC do personagem Mario, como ilustrado na Figura 4. A área iluminada foi de 6×6 cm2 e o tempo de um ciclo de cada medida foi de 0,3 s. Assim, para uma imagem de 64×64 pixels, foram necessários 41 min para se obter todos os coeficientes de Fourier. Este longo tempo de aquisição de dados é consequência da limitação da taxa de atualização vertical do projetor. Nós utilizamos um projetor ordinário da Epson modelo PowerLite S8+ com resolução de 800×600 pixels (SVGA) e saída de luz branca com fluxo luminoso de 2.500 lúmens. A taxa de atualização máxima do projetor (85 Hz) foi usada em sintonia com a placa de vídeo do computador de controle. A limitação devido à taxa de atualização pode ser superada usando, por exemplo, um dispositivo de microespelhos digital (DMD- Digital Micromirror Device) em que a taxa de modulação pode exceder 20 kHz [16]. Outro equipamento comumente utilizado nessa técnica é o modulador espacial de luz (SLM – Spatial Light Modulator), com taxas de atualização da ordem de poucos kHz. Devido principalmente ao alto custo, estes equipamentos não são usualmente encontrados em laboratórios didáticos, embora propostas alternativas de baixo custo já tenham surgido [29, 30, 31].
4. Discussão e Resultados
A Figura 6 mostra o resultado do espectro de Fourier coletado e a respectiva imagem no domínio espacial, com resolução de 64×64 pixels. A densidade espectral é apresentada em mapa de cinza e em escala logarítmica, dada por log(1 + |D|), a qual permite destacar pequenas variações em amplitude. A qualidade da respectiva imagem no domínio espacial depende fortemente no número de coeficientes de Fourier coletados. Para 20% do número total de medidas, o reconhecido da cena já é possível, imagem a esquerda. Isso se deve porque as componentes de baixa frequência do espectro de Fourier determinam as variações suaves na escala de cinza da imagem no domínio espacial, enquanto as variações abruptas, como bordas e fronteiras, são determinadas pelas componentes de alta frequência [21]. Como as informações mais essenciais para a constituição da imagem são obtidas antes de finalizar o número total de medidas, a técnica facilmente permite a implementação de algorítimos de compressão de dados [32].
Densidades espectrais e as respectivas imagens no domínio espacial obtidas por TDIF. Na parte superior, a densidade espectral para 20% e 100% do número total de medidas. Na parte inferior, as respectivas imagens reais com resolução de 64×64 pixels (barra de escala: 1 cm).
É importante salientar que neste experimento as principais fontes de ruídos são: (a) as oscilações térmicas da fonte de luz do projetor; (b) as variações de intensidade da luz ambiente; e (c) o falseamento de frequências (aliasing). O efeito sobre a imagem devido a cada uma dessas fontes de ruído deve ser verificado e removido com aplicação de filtros na densidade espectral [14]. Em nossos resultados observamos o efeito do falseamento de frequência que introduz uma indistinção no sinal detectado para padrões com alta frequência [como destacado na Figura 2 para a frequência (u4,v4)]. É por este motivo que a imagem final não apresenta bordas bem definidas, um problema inerente à resolução do sistema de iluminação. Todas estas fontes ruídos podem ser evitadas com equipamentos mais apropriados, aumentando o custo do experimento em contrapartida. Ainda que as limitações do projetor pareçam ruins, a análise de resultados de tal experimento possibilita a introdução de técnicas de processamento de imagens digitais, como por exemplo, a aplicação de filtros no domínio de Fourier. Nas imagens apresentadas na Figura 6, nenhum pós-processamento foi aplicado a fim de destacar as características da imagem em nossos resultados.
5. Considerações Finais
A técnica de captura de imagens por uma câmera de pixel único foi implementada usando um projetor como fonte de luz e um fotodiodo para medir a intensidade luminosa. Como computadores e projetores são equipamentos usualmente disponíveis como recursos de apoio didático e o sistema de aquisição do experimento possui baixo custo, a técnica pode ser incorporada em práticas de laboratório com baixo dispêndio. O sistema proposto possui 16 bits de profundidade de cor, consequência do conversor analógico-digital utilizado. Esta característica permite maior suavidade e continuidade nas tonalidades da escala de cinza das imagens em comparação a outros sistemas de baixo custo [15].
A técnica apresentada possui enorme potencial para substituir as técnicas de imageamento convencionais: (1) uma câmera de pixel único pode ser mais conveniente do que câmeras pixeladas na produção de imagens em determinadas bandas espectrais; (2) sua implementação dispensa elementos ópticos como filtros e lentes; (3) o sensor não precisa estar direcionado à cena de interesse. Outro fator relevante é a supressão de qualquer sinal indevido oriundo da iluminação ambiente que tenha intensidade constante. Em consequência, o ruído gerado por fontes externas é reduzido: decorrência direta da definição do sinal diferencial atualizado por quatro diferentes fases. Convém salientar que com apenas três fases ainda é possível reconstituir uma imagem no domínio espacial, embora a relação sinal-ruído seja prejudicada [33]. For fim, como a técnica explora o processamento computacional dos dados por FFT, a constituição da imagem é implementada de forma rápida e iterativa, podendo ainda ser incrementada com algoritmos de compressão de dados. Pelo exposto, acreditamos que a proposta de experimento possa ser inserida em disciplinas de laboratório avançado para os cursos de graduação em Física, tanto pelos temas abordados quanto pelas futuras aplicações da técnica.
Agradecimentos
Os autores agradecem à UFOP pelo apoio financeiro (processo nº: 23109.004080/2019-88) e ao(à) revisor(a) pelas importantes sugestões.
REFERÊNCIAS
-
1. Matriz curricular Física Bacharelado UNICAMP, disponível em: https://www.dac.unicamp.br/sistemas/catalogos/grad/catalogo2020/curriculoPleno/cp4.html, acessado em 07/12/2020.
» https://www.dac.unicamp.br/sistemas/catalogos/grad/catalogo2020/curriculoPleno/cp4.html -
2. Matriz curricular UNESP-RC, disponível em: https://igce.rc.unesp.br/Home/Instituicao/DiretoriaTecnicaAcademica/graduacao/p212-17-estrutura-fisica-curriculo-2015.pdf, acessado em 07/12/2020.
» https://igce.rc.unesp.br/Home/Instituicao/DiretoriaTecnicaAcademica/graduacao/p212-17-estrutura-fisica-curriculo-2015.pdf -
3. Matriz curricular Física UFOP Bacharelado, disponível em: https://zeppelin10.ufop.br/SistemaAcademico/MatrizCurricular?codCurso=FSB, acessado em 07/12/2020.
» https://zeppelin10.ufop.br/SistemaAcademico/MatrizCurricular?codCurso=FSB -
4. Matriz curricular Física UFV Bacharelado, disponível em: http://www.fisica.ufv.br/wp-content/uploads/2019/06/MatrizCurricularBacharelado.pdf, acessado em 07/12/2020.
» http://www.fisica.ufv.br/wp-content/uploads/2019/06/MatrizCurricularBacharelado.pdf -
5. Matriz curricular Física UFMG Bacharelado, disponível em: https://www.fisica.ufmg.br/graduacao/wp-content/uploads/sites/3/2019/05/BacD2019.pdf, acessado em 07/12/2020.
» https://www.fisica.ufmg.br/graduacao/wp-content/uploads/sites/3/2019/05/BacD2019.pdf -
6. Matriz curricular Física USP-SP Bacharelado, disponível em: https://uspdigital.usp.br/jupiterweb/listarGradeCurricular?codcg=43&codcur=43021&codhab=101&tipo=N, acessado em 07/12/2020.
» https://uspdigital.usp.br/jupiterweb/listarGradeCurricular?codcg=43&codcur=43021&codhab=101&tipo=N -
7. Matriz curricular Física USP-São Carlos, disponível em: http://www2.ifsc.usp.br/graduacao/wp-content/uploads/2020/05/Grade-Curricular-76014.pdf, acessado em 07/12/2020.
» http://www2.ifsc.usp.br/graduacao/wp-content/uploads/2020/05/Grade-Curricular-76014.pdf - 8. D. Halliday, R. Resnick e J. Walker, Fundamentals of physics (John Wiley & Sons, Hoboken, 2013).
- 9. P.A. Tipler e G. Mosca, Física para cientistas e engenheiros: eletricidade e magnetismo, óptica (Grupo Gen-LTC, São Paulo, 2000), v. 2.
- 10. E. Hecht, Optics, 5e (Pearson Education India, Chennai, 2002).
- 11. G.R. Fowles, Introduction to modern optics (Courier Corporation, Chelmsford, 1989).
- 12. M. Born e E. Wolf, Principles of optics: electromagnetic theory of propagation, interference and diffraction of light (Elsevier, Amsterdã, 2013).
- 13. S.M. Rezende, Materiais e dispositivos eletrônicos (Editora Livraria da Física, São Paulo, 2004).
- 14. Z. Zhang, X. MA e J. Zhong, Nat. Commun. 6, 6225 (2015).
- 15. R.A. Aguilar, N. Hermosa e M.N. Soriano, Am. J. Phys. 87, 976 (2019).
- 16. M.P. Edgar, G.M. Gibson e M.J. Padgett, Nat. Photon. 13, 13 (2019).
- 17. L. Bian, J. Suo, G. Situ, Z. Li, J. Fan, F. Chen e Q. Dai, Sci. Rep. 6, 24752 (2016).
- 18. J. Greenberg, K. Krishnamurthy e D. Brady, Opt. Lett. OSA 39, 111 (2014).
- 19. Z. Zhang e J. Zhong, Opt. Lett. OSA 41, 2497 (2016).
- 20. M.J.A. Bolzan, Rev. Bras. Ens. Fis. 28, 563 (2006).
- 21. M.S. Rzeszotarski, F.L. Royer e G.C. Gilmore, Behav. Res. Meth. Instru. 15, 308 (1983).
- 22. C. Solomon e T. Breckon, Fundamentals of Digital Image Processing: A practical approach with examples in Matlab (John Wiley & Sons, Hoboken, 2011).
- 23. O. Helene, A.F. Helene, Revista Brasileira de Ensino de Física 33, 3312 (2011).
-
24. Super Mario Bros, disponível em: https://mario.nintendo.com/history/, acessado em 07/12/2020.
» https://mario.nintendo.com/history/ - 25. J.W. Eaton, GNU Octave version 5.2.0 manual: a high-level interactive language for numerical computations, 2020.
- 26. T. Instruments, Opt101 monolithic photodiode and single-supply transimpedance amplifier, 2015.
- 27. M. Margolis, B. Jepson e N.R. Weldin, Arduino cookbook: recipes to begin, expand, and enhance your projects (O’Reilly Media, Sebastopol, 2020).
- 28. T. Instruments, ADS111x Ultra-Small, Low-Power, I2C-Compatible, 860-SPS, 16-Bit ADCs with Internal Reference, Oscillator, and Programmable Comparator, 2016.
- 29. A.M. Tai, Appl. Opt. OSA, 25, 1380 (1986).
- 30. D. Huang, H. Timmers, A. Roberts, N. Shivaram e A.S. Sandhua, Am. J. Phys. 80, 211 (2012).
- 31. D. Sych e M. Aksenov, AIP Conf. Proc. 1936, 020016 (2018).
- 32. F. Soldevila, E. Salvador-Balaguer, P. Clemente, E. Tajahuerce e J. Lancis, Sci. Rep. 5, 14300 (2015).
- 33. Z. Zhang, X. Wang, G. Zheng e J. Zhong, Sci. Rep. 7, 12029 (2017).
Datas de Publicação
-
Publicação nesta coleção
29 Mar 2021 -
Data do Fascículo
2021
Histórico
-
Recebido
28 Jan 2021 -
Aceito
26 Fev 2021