Resumo
Least-squares support vector machines (LS-SVM) were used as an alternative multivariate calibration method for the simultaneous quantification of some common adulterants found in powdered milk samples, using near-infrared spectroscopy. Excellent models were built using LS-SVM for determining R², RMSECV and RMSEP values. LS-SVMs show superior performance for quantifying starch, whey and sucrose in powdered milk samples in relation to PLSR. This study shows that it is possible to determine precisely the amount of one and two common adulterants simultaneously in powdered milk samples using LS-SVM and NIR spectra.
support vector machines; multivariate regression; powdered milk
support vector machines; multivariate regression; powdered milk
ARTIGO
LS-SVM: uma nova ferramenta quimiométrica para regressão multivariada. Comparação de modelos de regressão LS-SVM e PLS na quantificação de adulterantes em leite em pó empregando NIR
LS-SVM: a new chemometric tool for multivariate regression. Comparison of LS-SVM and pls regression for determination of common adulterants in powdered milk by nir spectroscopy
Marco F. FerrãoI,* * e-mail: ferrao@unisc.br ; Cesar MelloII; Alessandra BorinIII; Danilo A. MarettoIII; Ronei J. PoppiIII
IDepartamento de Química e Física, Universidade de Santa Cruz do Sul, CP 188, 96815-900 Santa Cruz do Sul - RS, Brasil
IIInstituto de Química, Universidade de Franca, CP 32, 14404-600 Franca - SP, Brasil
IIIInstituto de Química, Universidade Estadual de Campinas, CP 6154, 13084-971 Campinas - SP, Brasil
ABSTRACT
Least-squares support vector machines (LS-SVM) were used as an alternative multivariate calibration method for the simultaneous quantification of some common adulterants found in powdered milk samples, using near-infrared spectroscopy. Excellent models were built using LS-SVM for determining R2, RMSECV and RMSEP values. LS-SVMs show superior performance for quantifying starch, whey and sucrose in powdered milk samples in relation to PLSR. This study shows that it is possible to determine precisely the amount of one and two common adulterants simultaneously in powdered milk samples using LS-SVM and NIR spectra.
Keywords: support vector machines; multivariate regression; powdered milk.
INTRODUÇÃO
Recentemente, as redes neurais empregando perceptrons de múltiplas camadas e as redes neurais de função base radial vêm sendo amplamente utilizadas em diversos campos da ciência, como por ex.: na teoria de controle, no processamento de sinais e em problemas de modelagem linear e não linear1,2. Neste contexto, uma promissora ferramenta denominada máquina de vetor de suporte (SVM)1-4 tem sido utilizada em problemas de classificação e de modelamento. Este algoritmo, baseado na aprendizagem de máquinas de vetores de suporte, foi recentemente introduzido e aplicado em problemas já conhecidos nas áreas da química5-9, farmacêutica10, microbiológica11 e mais amplamente na área médica12-17.
Entretanto, na área da quimiometria, à qual se referem os problemas de quantificação (regressão multivariada), as aplicações encontradas na literatura ainda são escassas como a exemplo das aplicações das máquinas de vetor de suporte com mínimos quadrados (LS-SVM) com o emprego de espectros Raman para monitorar reações de copolimerização e de espectros NIR na quantificação de misturas ternárias realizadas por Thissen et al.18,19 na comparação do desempenho da LS-SVM com métodos clássicos de regressão publicado por Chauchard et al.20 visando a previsão da acidez total em uvas, e ainda, do trabalho de Cogdill et al.21 que emprega espectroscopia NIR para estimar propriedades da madeira.
Neste sentido, o presente artigo vem apresentar à comunidade científica os principais fundamentos que tornam as máquinas de vetor de suporte excelentes alternativas aos já consagrados métodos de regressão multivariada, destacando-se sua capacidade de generalização e elevada robustez. Como aplicação desta nova ferramenta quimiométrica são apresentados e discutidos os resultados empregando espectros NIR de amostras de leite em pó puro e com adição de amido, soro de leite e/ou sacarose.
MÁQUINAS DE VETORES DE SUPORTE (SVM)
As máquinas de vetores de suporte (SVM - "Support Vector Machines") usadas para regressão são uma generalização do algoritmo "Generalized Portrait" desenvolvido, na Rússia, por Vapnik, Lerner e Chervonenkis na década de 6022. Uma abordagem similar, empregando programação linear ao invés de programação quadrática, foi desenvolvida na mesma época nos Estados Unidos23. A estratégia de aprendizado baseada em vetores de suporte está fundamentada na teoria de aprendizado estatístico, ou teoria VC (Vapnik-Chervonenkis), que vem sendo desenvolvida ao longo das últimas três décadas visando a proposição de técnicas de aprendizado de máquina que buscam maximizar a capacidade de generalização24. Entretanto, a forma atual das máquinas suportadas em vetores foi desenvolvida por Vapnik e colaboradores, nos laboratórios da AT&T Bell, no final da década de 90 com ênfase maior nas aplicações práticas1,25.
O problema de modelagem de dados experimentais é pertinente a muitas aplicações da Química e Ciências afins. Na modelagem de dados empíricos, é usado um processo de indução para construir um modelo matemático capaz de expressar as relações de entrada-saída, a partir do qual são deduzidas respostas ainda não observadas. Basicamente, a quantidade e qualidade dos dados disponíveis governam o desempenho deste modelo empírico. Por tratar-se de uma técnica de aprendizado baseada em dados experimentais, o tamanho do conjunto de dados fornece tratabilidade computacional, mas conduz a uma amostragem esparsa do espaço de entrada26. Conseqüentemente, o problema de aprendizado tende a ser mal condicionado no sentido de Hadamard, ou seja, não há dependência contínua dos dados e o processo de indução de modelos não possui solução única27. Quando temos uma multiplicidade de soluções candidatas igualmente admissíveis, a capacidade de generalização dos modelos resultantes passa a representar um critério de qualidade capaz de atenuar o efeito do mal condicionamento.
No entanto, modelos matemáticos com capacidade de aproximação universal, como as redes neurais artificiais, ainda não são dotadas de algoritmos de treinamento capazes de maximizar a capacidade de generalização de uma forma sistemática, o que pode levar a um sobre-ajuste do modelo aos dados28,29. Por operar no espaço original dos dados, em que as não-linearidades presentes e a complexidade intrínseca do problema não são conhecidas a priori, os algoritmos de otimização para ajuste de parâmetros e as ferramentas estatísticas adotadas para seleção de modelos podem induzir modelos com baixa capacidade de generalização26.
Deste contexto origina-se a principal motivação para a proposição de máquinas de vetores-suporte (SVMs), as quais apresentam como principais vantagens em suas aplicações30: elevada capacidade de generalização - é uma medida da eficiência na previsão de dados que não pertençam ao conjunto utilizado para o treinamento. Assim sendo, evita-se o "overfitting", situação na qual se obtêm baixos erros no conjunto de treinamento e erros elevados no conjunto de previsão; robustez em grandes dimensões - possibilita a aplicação de SVMs em vetores de características de grandes dimensões, por ex., imagens. A maioria das técnicas de aprendizado de máquina apresentam dificuldade no tratamento de dados de alta dimensionalidade; convexidade da função objetivo - a aplicação das SVMs implica na otimização de uma função quadrática, que possui apenas um mínimo. Esta é uma vantagem sobre as redes neurais, onde a função objetivo possui vários mínimos locais; teoria bem definida - a base teórica das SVMs, a Teoria de Aprendizado Estatístico, é bem estabelecida dentro da Matemática e da Estatística.
As SVMs possuem diferentes núcleos que caracterizam seu modo de reconhecimento dos padrões; dentre os mais utilizados podemos citar: Linear, Polinomial (que manipula uma função polinomial cujo grau pode ser definido durante os treinamentos), Gaussiano (corresponde a um espaço de características de dimensão infinita; a utilização desse núcleo permite que uma SVM apresente características de uma rede RBF) e Sigmoidal (permite que a SVM tenha comportamento semelhante ao de uma rede MLP). A correta definição do núcleo e de seus respectivos parâmetros possui forte influência nos resultados obtidos por uma SVM31.
Freqüentemente, as SVMs são empregadas como ferramentas de classificação binária, podendo ser facilmente adaptadas aos problemas de regressão multivariada. Os princípios da aplicação das SVMs para classificação e regressão linear foram recentemente apresentados na literatura32,33, bem como sua extensão aos casos não-lineares.
Teoria das LS-SVM empregadas para regressão multivariada
A implementação computacional das SVM não é muito simples e o tempo computacional gasto pode ser elevado em alguns casos. Todavia, recentemente foi proposto por Suykens e colaboradores33 uma extensão da teoria das SVM utilizando o método dos mínimos quadrados, que ficou conhecida como LS-SVM.
As máquinas de vetores de suporte (SVM) em sua presente forma foram desenvolvidas nos laboratórios da AT&T na década de 9034. Assim, as SVM são técnicas quimiométricas relativamente novas aplicadas em calibração multivariada e em problemas de reconhecimento de padrões e classificação de dados35. As máquinas de vetores de suporte com mínimos quadrados36 são capazes de tratar de modo relativamente rápido problemas de calibração multivariada lineares ou não lineares. Uma estimativa linear é feita em um núcleo linear (y = wTf(x) + b). De modo semelhante ao que ocorre com as SVM nas máquinas de vetores de suporte com mínimos quadrados (LS-SVM), é necessário minimizar uma função custo (C) contendo uma penalização dos erros de regressão, conforme a Equação 1:
de modo que
para todos os valores de i = 1,..., N; em que f denota a função de linearização dos dados.
A primeira parte desta função custo é um decaimento utilizado para regularizar os pesos e penalizar pesos elevados. Devido a esta regularização, os pesos convergem para valores menores. Este procedimento é necessário pois pesos elevados causam excessiva variância, deteriorando a capacidade de generalização das LS-SVM. A segunda parte da Equação 1 representa os erros de regressão para todos os dados de treinamento. O parâmetro g, o qual deve ser otimizado pelo usuário, fornece o peso relativo da segunda parte da Equação 1, quando comparado com a primeira parte da mesma. A restrição imposta pela Equação 2 fornece a definição do erro de regressão.
Analisando-se a Equação 1 e sua restrição dada pela Equação 2 é possível concluir que temos um típico problema de otimização convexa33, que pode ser resolvido usando-se o método dos multiplicadores de Lagrange37:
em que .
O ótimo é obtido fazendo-se as derivadas parciais e, em seguida, igualando todas a zero:
então:
na qual um núcleo positivo de transformação é usado conforme a Equação 7:
Um importante resultado desta abordagem é que os pesos (w) podem ser escritos como uma combinação linear dos multiplicadores de Lagrange correspondentes aos dados de treinamente (xi). Colocando-se o resultado da Equação 6 na reta de regressão original (y = wTf(x) + b), o seguinte resultado é obtido:
Para um ponto yj ser avaliado temos:
Os vetores a são obtidos resolvendo-se o sistema linear de equações como segue:
na qual M é uma matriz quadrada dada por:
onde K é a matriz núcleo da transformação com ij-ésimo elemento K = (xi, xj) = f(xi)Tf(xj) e I é a matriz identidade N x N, 1N = [1 1 1 ... 1]T. Assim a solução é dada por:
Como pode ser observado nas Equações 11 e 12, usualmente a maioria dos multiplicadores de Lagrange (os vetores de suporte) não possuem valor zero, indicando que a maioria dos dados de treinamento contribuem para a solução. Assim como ocorre com as SVM padrões, as soluções das LS-SVM não são usualmente esparsas. Entretanto, como descrito por Suykens et al.33, uma solução esparsa pode ser facilmente obtida através de técnicas de redução como "pruning", por ex. Dependendo do número de dados de treinamento, uma solução exata pode ser obtida utilizando-se métodos de solução iterativos, como por ex, o método dos gradientes conjugados, no caso do conjunto de dados ser de alta dimensionalidade. Em ambos os casos, métodos numéricos eficientes devem ser usados.
Em aplicações envolvendo regressão não linear é suficiente trocar o produto interno á f(xi), f(xj) ñ da Equação 9 por uma função núcleo e o ij-ésimo elemento da matriz K igual a Kij = f(xi)Tf(xj). Se esta função núcleo satisfizer as condições do teorema de Mercer38, a função núcleo determina implicitamente tanto a transformação linear, x ® f(x), quanto o correspondente produto interno f(xi)Tf(xj). Este fato leva a seguinte função de regressão não-linear:
Para se avaliar um ponto xj faz-se:
A obtenção da função núcleo é trabalhosa e dependerá de cada caso. Entretanto, a função núcleo mais usada é exp(-||xi - xj||2 /s2), uma simples função gaussiana, e funções polinomiais áxi, xjñd, em que s2 é a largura da função gaussiana e d é o grau do polinômio, o qual deve ser otimizado pelo usuário, usado para obter os vetores de suporte39. Isto é feito obtendo-se o mínimo de uma superfície de erros em função de s2 e g, conforme exemplificado na Figura 1. Ressaltamos que os valores de s e d devem ser ajustados em conjunto com a constante de regularização g, para se obter um modelo com boa capacidade de generalização.
Em uma abordagem alternativa podemos descrever que as LS-SVM são análogas às redes neurais de avanço, no sentido em que processam a informação de modo seqüencial através de camadas e podemos usar funções de base análogas às funções de transferências usadas nas redes neurais. Além disso, existem alguns textos que colocam as LS-SVM como um capítulo das redes neurais. Assim sendo a Figura 2 representa uma LS-SVM como uma rede neural:
Na Figura 2, a informação que entra na rede neural são as absorbâncias lidas em diferentes comprimentos de onda do espectro no infravermelho sendo em seguida processadas pelos vetores suporte, obtidos pelo método de Lagrange. Na seqüência, se necessário, as funções são linearizadas e depois aplicam-se a função núcleo e os pesos, que nada mais são que os multiplicadores de Lagrange. Finalmente, temos o somatório e a função y procurada, sendo então comparada com o valor real . Na grande maioria dos casos é necessário otimizar os valores de s2 e g e novamente propagar o sinal pela rede neural até que se obtenha a convergência desejada para os dados de treinamento. Neste caso, realmente as LS-SVM são semelhantes às redes neurais de avanço e às redes com regularização.
Apesar de ambas representações estarem corretas, acreditamos que, como uma primeira abordagem, a apresentação das LS-SVM como redes neurais seja mais simples, uma vez que as redes neurais já são bem conhecidas e usadas em nosso meio acadêmico.
DETERMINAÇÃO DE AMIDO, SORO E SACAROSE ADICIONADA EM LEITE EM PÓ
Fraudes em leite em pó
A fiscalização da autenticidade dos alimentos é muito importante, seja por razões econômicas ou de saúde pública. No Brasil, até poucos anos atrás a fraude mais comum era em leite fluido40. As contaminações no leite fluido ocorrem adicionando-se água, neutralizadores para mascarar acidez, sal ou açúcar para mascarar água extra ou teor de sólidos elevados, soro de queijo entre outros41.
O leite em pó, além do lugar de destaque na alimentação da população, possui grande importância do ponto de vista econômico. Desde 2003 o perfil de exportação mudou, tendo sido exportado em 2004 mais de 55 t de leite em pó, em comparação com o ano de 2000, que foi de menos de 5 t, o que repercute em maior exigência da qualidade do produto, por ex. em análises rápidas em portos e aeroportos, entre outros42. Além do grande consumo de leite em pó no comércio varejista, o leite em pó é utilizado largamente na merenda escolar.
A qualidade do leite em pó é regulamentada pelo Regulamento técnico de identidade e qualidade de leite em pó43 e as fraudes mais freqüentes ocorrem com a adição de soro de leite, maltose, sacarose, amido e até soda cáustica. Entre as fraudes mais comuns praticadas no Brasil, está a adição do soro de leite, que é 90% mais barato que o leite e, geralmente, é importado da Argentina, Nova Zelândia e Austrália. Outros contaminantes que têm sido encontrados são amido, sacarose e, com menor freqüência, maltodextrina e soda cáustica. A faixa de fraude mais comum é de 20 a 25%, pois até esta o consumidor não percebe diferenças no sabor, mas a fraude pode chegar em até 60%.
A espectroscopia por reflectância difusa no infravermelho próximo em análises de alimentos
A espectroscopia no infravermelho já foi aplicada em leite para determinação de caseína44, proteína e lactose45, bem como para classificação46 de leite e em casos de adulteração com gordura47, e com soro em leite em pó desnatado.
A região do infravermelho próximo (NIR), que compreende a região de 780 a 2500 nm, vem sendo amplamente empregada na análise de alimentos por ser uma técnica rápida (entre 15 a 90 s), não destrutiva e geralmente sem necessidade de preparo das amostras. Os espectros de NIR de alimentos consistem de amplas bandas correspondendo às sobreposições e combinações de modos vibracionais envolvendo ligações químicas, como C-H, O-H e N-H48-54.
A complexidade dos espectros de reflectância difusa, bem como a classificação e quantificação requerem o emprego de ferramentas quimiométricas, que basicamente desenvolvem modelos matemáticos a partir desses sinais instrumentais.
Preparação das amostras
Amostras de leite em pó tipo a granel Discamp foram contaminadas com soro de leite - fornecido pela Tangará, amido (Synth) e sacarose (Synth), separadamente, em níveis de concentração que foram de 1 a 50% (m/m). Para as misturas ternárias foi realizado um planejamento com 6 níveis de concentração (4, 8, 12, 15, 20 e 25%), conforme Tabela 1, com o propósito de ter amostras com concentrações igualmente espaçadas em toda a faixa estudada para cada um dos contaminantes.
Instrumentação
As amostras foram homogeneizadas com auxilio de vórtex e os espectros obtidos no Espectrofotômetro UV-VIS Cary 5G, em triplicata, na região de 810 m a 2400 nm.
Um total de 7 conjuntos de espectros foram empregados conforme os limites descritos na Tabela 2, incluindo amostras de leite em pó puro.
Modelagem dos dados
Os modelos multivariados foram realizados em um microcomputador com processador Intel Pentium 4 3.00 Ghz e 1 Gbytes de memória RAM, empregando os pacotes PLS-Toolbox55 e LS-SVM33 para MATLAB. Aos conjuntos de dados espectrais foi empregada a correção do espalhamento multiplicativo de sinal (MSC).
Para avaliar o desempenho dos modelos de calibração foram calculados os erros de validação cruzada RMSECV ("Root Mean Square Error of Cross-validation") e de previsão RMSEP ("Root Mean Square Error of Prediction"), conforme a Equação 15.
onde
i representa o valor previsto pelo modelo multivariado, yi representa o valor referência e n corresponde ao número de amostras.Para os modelos de regressão empregando o método dos mínimos quadrados parciais (PLS), o número de variáveis latentes foi definido através de validação cruzada empregando as amostras do conjunto de calibração descritas na Tabela 3.
RESULTADOS E DISCUSSÃO
Com o objetivo de corrigir o desvio da linha de base foi aplicada a todos os espectros obtidos a correção do espalhamento multiplicativo (MSC). Os espectros NIR compreendidos entre 1027,5 - 2400 nm de todas as amostras de leite em pó puro e leite adulterado empregadas neste trabalho são apresentados na Figura 3.
Na construção do modelo através das máquinas de vetor suporte por mínimos quadrados é necessário definir os dois parâmetros de entrada (gama e sigma), além das matrizes de espectros e dos vetores das propriedades de interesse para ambos os conjuntos: calibração e previsão. A Figura 1 ilustra uma típica superfície para otimização do modelo de calibração multivariada empregando LS-SVM. Os parâmetros g (gama) e s2 (sigma quadrático) foram combinados, a fim de se verificar a tendência do erro de validação cruzada (RMSECV). Este procedimento é semelhante à escolha do número de variáveis latentes para os modelos de regressão PLS, porém neste caso temos um problema em duas dimensões. Para simplificar o procedimento e a construção de um modelo único para a previsão simultânea de amido, soro e sacarose nas amostras de leite em pó, consideramos a resposta média do RMSECV para os três analitos conforme a Equação 16.
Afim de estudar a dependência do modelo LS-SVM, aqui estudado, com os valores de g e s2 foram comparados os valores de RMSECVmédio , RMSEPmédio e R2 de calibração para as diferentes combinações destes. De forma semelhante ao apresentado na Figura 1, pode-se observar na Tabela 4 com mais detalhes que, à medida que aumentamos os valores de ambos os parâmetros, os valores de RMSECVmédio e RMSEPmédio decrescem inicialmente de forma intensa, até que por volta de 200 a 300 os valores de RMSECVmédio e RMSEPmédio passam a não apresentar mais uma sensível redução. Por outro lado, quando fixamos o valor de g = 200 e incrementamos s2, os valores de RMSE tendem a aumentar. Se fixamos s2 = 200 e aumentamos g os valores de RMSEP, apesar de decrescerem, tornam-se mais distantes e com isso aumenta o risco de "overfitting". Também foi possível observar que se continuarmos incrementando o valor de g para o infinito, o RMSECVmédio tende a um mínimo, entretanto certamente resultará em um modelo sobredimensionado com maior tendência a erros de previsão das amostras externas.
Para selecionar o número adequado de variáveis latentes nos modelos PLS também foi empregado o RMSECV, cujos resultados para cada adulterante são apresentados na Figura 4. Considerando a quantificação do amido, pode-se observar que acima de 9 variáveis latentes o RMSECV não decresce mais significativamente. Também fica claro que o número mais adequado de VL é diferente para cada caso em estudo, sendo que os mais adequados são apresentados na Tabela 5.
Ao compararmos os resultados para cada um dos analitos, percebe-se que embora tanto os modelos PLS quanto os LS-SVM apresentem bons coeficientes de correlação para a calibração (R2), o modelo empregando LS-SVM é superior para quantificação de qualquer um dos 3 analitos, apresentando valores de RMSECV, RMSEC e RMSEP significativamente melhores.
Nas Figuras 5 a 7 são apresentados os gráficos de correlação entre os valores de referência e os valores previstos pelos modelos PLS e LS-SVM para a quantificação de amido, soro e sacarose em leite em pó, respectivamente. Embora os coeficientes de correlação para os três analitos sejam adequados para ambas as técnicas de regressão, pode-se observar que os modelos empregando o PLS apresentam maior dispersão, tanto para as amostras de calibração quanto de previsão, que os análogos empregando LS-SVM. A grande dificuldade dos modelos PLS apresentados é a incapacidade destes em prever a ausência de qualquer um dos analitos nas amostras em estudo. Já os modelos empregando LS-SVM sempre foram superiores na capacidade preditiva do ponto zero, em função da sua maior capacidade de generalização.
Afim de demonstrar a capacidade do modelo LS-SVM em indicar não só quem possivelmente esteja adulterando as amostras de leite em pó, mas também que nenhum dos três potenciais adulterantes se encontram nas amostras estudadas, são apresentados na Tabela 6, comparativamente, os valores de previsão para as 6 amostras de leite em pó puro do conjunto de validação.
Verifica-se que o modelo empregando LS-SVM é capaz de indicar a ausência dos referidos adulterantes uma vez que o maior valor encontrado foi de 0,3577% para o amido na amostra 2, enquanto que os modelos PLS além de preverem valores negativos significativos chegam a indicar 8,0796% de sacarose na amostra 4 que, tecnicamente, não apresenta adição do mesmo.
CONCLUSÕES
Neste artigo apresentamos os fundamentos das máquinas de vetor suporte por quadrados mínimos (LS-SVM) e propomos sua aplicação na quantificação de amido, soro e/ou sacarose em amostras de leite em pó. Para efeito de comparação utilizamos o clássico método de regressão por mínimos quadrados parciais (PLSR). Os resultados demonstraram o excelente desempenho dos modelos de regressão multivariada desenvolvidos com LS-SVM. Dentre as principais vantagens das LS-SVM podemos verificar sua capacidade de inferir sobre a ausência de um ou mais dos adulterantes avaliados, enquanto que todos os modelos PLSR apresentaram falso positivo.
Também foram demonstradas a grande capacidade de generalização e a flexibilidade das LS-SVM, combinando diferentes conjuntos de espectros na construção de um único modelo de calibração para cada analito considerado.
Finalmente, a utilização da LS-SVM na construção de modelos de regressão multivariados mostrou-se uma técnica bastante promissora para ser empregada na avaliação da qualidade de produtos alimentícios através de medidas indiretas de análise, como por ex., espectros de reflexão no infravermelho próximo (NIR).
AGRADECIMENTOS
Ao CNPq pelas bolsas concedidas.
Recebido em 28/4/06; aceito em 29/8/06; publicado na web em 27/4/07
- 1. Vapnik, V. Em Nonlinear Modeling: Advanced Black-Box Techniques; Suykens, J. A. K.; Vandewalle, J., eds.; Kluwer Academic Publishers: Boston, 1998, p. 55-85.
- 2. Suykens, J. A. K.; Eur. J. Control 2001, 7, 311.
- 3. Burges, C. J. C.; Data Min. Knowl. Discov. 1998, 2, 121.
- 4. Smola, A. J.; Schölkopf, B.; Stat. Comput 2004, 14, 199.
- 5. Belousov, A. I.; Verzakov, S. A.; von Frese, J.; J. Chemom. 2002, 16, 482.
- 6. Zomer, S.; Brereton, R. G.; Carter, J. F.; Eckers, C.; Analyst 2004, 129, 175.
- 7. Pierna, J. A. F.; Volery, P.; Besson, R.; Baeten, V.; Dardenne, P.; J. Agric. Food Chem. 2005, 53, 6581.
- 8. Brudzewski, K.; Kesik, A.; Kolodziejczyk, K.; Zborowska, U.; Ulaczyk, J.; Fuel 2006, 85, 553.
- 9. Brudzewski, K.; Osowski, S.; Markiewicz, T.; Ulaczyk, J.; Sens. Actuators, B 2006, 113, 135.
- 10. Burbidge, R.; Trotter, M.; Buxton, B.; Holden, S.; Comput. Chem. 2001, 26, 5.
- 11. Harz, M.; Rosch, P.; Peschke, K. D.; Ronneberger, O.; Burkhardt, H.; Popp, J.; Analyst 2005, 130, 1543.
- 12. Peng, S. H.; Xu, Q. H.; Ling, X. B.; Peng, X. N.; Du, W.; Chen, L. B.; FEBS Lett. 2003, 555, 358.
- 13. Lu, C.; van Gestel, T.; Suykens, J. A. K.; van Huffel, S.; Vergote, I.; Timmerman, D.; Artif. Intell. Med. 2003, 28, 281.
- 14. Devos, A.; Lukas, L.; Suykens, J. A. K.; Vanhamme, L.; Tate, A. R.; Howe, F. A.; Majos, C.; Moreno-Torres, A.; van der Graaf, M.; Arus, C.; van Huffel, S.; J. Magn. Reson. 2004, 170, 164.
- 15. Martin, T. C.; Moecks, J.; Belooussov, A.; Cawthraw, S.; Dolenko, B.; Eiden, M.; von Frese, J.; Köhler, W.; Schmitt, J.; Somorjai, R.; Udelhoven, T.; Verzakov, S.; Petrich, W.; Analyst 2004, 129, 897.
- 16. Acir, N.; Neural Comput. Appl. 2005, 14, 299.
- 17. Majewski, P.; Jedruch, W.; Lect. Notes Artif. Intell 2005, 3533, 400.
- 18. Thissen, U.; Üstün, B.; Melssen, W. J.; Buydens, L. M. C.; Anal. Chem 2004, 76, 3099.
- 19. Thissen, U.; Pepers, M.; Üstün, B.; Melssen, W. J.; Buydens, L. M. C.; Chemom. Intell. Lab. Syst 2004, 73, 169.
- 20. Chauchard, F.; Cogdill, R.; Roussel, S.; Roger, J. M.; Bellon-Maurel, V.; Chemom. Intell. Lab. Syst. 2004, 71, 141.
- 21. Cogdill, R. P.; Schimleck, L. R.; Jones, P. D.; Peter, G. F.; Daniels, R. F.; Clark, A.; J. Near Infrared Spectrosc. 2004, 12, 263.
- 22. Vapnik, V.; Lerner, A.; Automat. Remote Control 1963, 24, 774.
- 23. Mangasarian, O. L.; Oper. Res. 1965, 13, 444.
- 24. Vapnik, V. N.; The Nature of Statistical Learning Theory, Springer: New York, 2nd ed., 2000.
- 25. Vapnik, V.; Golowich, S.; Smola, A. Em Neural Information Processing Systems; Mozer, M.; Jordan, M.; Petsche, T., eds.; MIT Press: Cambridge, 1997, vol. 9.
- 26. Lima, C. A. M.; Tese de Doutorado, Universidade Estadual de Campinas, Brasil, 2004.
- 27. Poggio, T.; Torre, V.; Koch, C.; Nature 1985, 317, 314.
- 28. Hornik, K.; Stinchombe, M.; White, H.; Neural Netw. 1989, 2, 359.
- 29. Cerqueira, E. O.; Andrade, J. C.; Poppi, R. J.; Mello, C.; Quim. Nova 2001, 24, 864.
- 30. Smola, A. J.; Barlett, P.; Schölkopf, B.; Schuurmans, D. Em Advances in LargeMargin Classifiers, Barlett, P.; Schuurmans, D.; Scholkopf, B., eds.; MIT Press: Cambridge 2000, cap 1, p. 1-28.
- 31. Giampaolo, L. L.; Netto, A. V.; de Carvalho, A. P. L. F.; de Oliveira, M. C. F.; Sba, Soc. Bras. Autom. 2005, 16, 146.
- 32. Scholkopf, B.; Burges, C. J. C.; Smola, A. J.; Advances in Kernel Methods: Support Vector Learning, MIT Press: Cambridge, 1999.
- 33. Suykens, J. A. K.; van Gestel, T.; de Brabanter, J.; de Moor, B.; Vandewalle, J.; Least-Squares Support Vector Machines, World Scientific: Singapore, 2002.
- 34. Vapnik, V.; Statistical Learning Theory, John Wiley & Sons: New York, 1998.
- 35. Thissen, U.; van Brakel, R.; de Weijer, A. P.; Melssen, W. J.; Buydens, L. M. C.; Chemom. Intell. Lab. Syst 2003, 69, 35.
- 36. Suykens, J. A. K.; Vanderwalle, J.; Neural Proc. Lett 1999, 9, 293.
- 37. Arfken, G. B.; Weber, H. J.; Mathematical Methods for Physicists, 4th ed., Academic Press: New York, 1995, p. 973.
- 38. Mercer, J.; Philos. Trans. Roy. Soc. London Ser. A 1909, 209, 415.
- 39. Cogdill, R. P.; Dardenne, P.; J. Near Infrared Spectrosc 2004, 12, 93.
- 40. Silva, H. F.; Físico-química do leite e derivados: métodos analíticos, Ed. Gemacom: Juiz de Fora, 1997.
- 41. Harding, F.; Adulteration of milk - Milk Quality, Chapman e Hall Food Science Book: New York, 1999.
-
42http://www.cnpgl.embrapa.br/ producao/06mercado/ tabela06.20.php, acessada em Dezembro 2005.
-
43http://extranet.agricultura.gov.br/ consultasislegis/do / consultaLei?op=viewTextual&codigo=5493, acessada em Março 2006.
- 44. Sorensen, L. K.; Lund, M.; Juul, B.; J. Dairy Res. 2003, 70, 445.
- 45. Sasic, S.; Ozaki, Y.; Anal. Chem. 2001, 73, 64.
- 46. Downey, G.; Robert, P.; Bertrand, D.; Kelly, P. M.; Appl. Spectrosc. 1990, 44, 150.
- 47. Sato, T.; Kawano, S.; J. Dairy Sci. 1990, 73, 3408.
- 48. Osborne, B. G. Em Near-infrared spectroscopy in food analysis; Encyclopedia of Analytical Chemistry, Meyers, R. A., ed.; Wiley: Chichester, 1999.
- 49. Parreira, T. F.; Ferreira, M. M. C.; Sales, H. J. S.; de Almeida, W. B.; Appl. Spectrosc 2002, 56, 1607.
- 50. Pasquini, C.; J. Braz. Chem. Soc. 2003, 14, 198.
- 51. Rodrigues, J. C.; Nascimento, A. C.; Alves, A.; Osório, N. M.; Pires, A. S.; Gusmão, J. H.; da Fonseca, M. M. R.; Ferreira-Dias, S.; Anal. Chim. Acta 2005, 544, 213.
- 52. Morgano, M. A.; Faria, C. G.; Ferrão, M. F.; Bragagnolo, N.; Ferreira, M. M. C.; Ciênc. Tecnol. Aliment. 2005, 25, 25.
- 53. Liu, Y.; Ying, Y.; Yu, H.; Fu, X.; J. Agric. Food Chem 2006, 54, 2810.
- 54. Kovalenko, I. V.; Rippke, G. R.; Hurburgh, C. R.; J. Am. Oil Chem. Soc 2006, 83, 421.
- 55. Wise, B. M.; Gallagher, N. B.; Bro, R.; Shaver, J. M.; Windig, W.; Koch, R. S.; PLS Toolbox 3.5 for use with MATLABTM, Eigenvector Research Inc.: Manson, 2005.
Datas de Publicação
-
Publicação nesta coleção
10 Ago 2007 -
Data do Fascículo
Ago 2007
Histórico
-
Recebido
28 Abr 2006 -
Aceito
29 Ago 2006