Collection Mémoires et thèses électroniques
AccueilÀ proposNous joindre

CHAPITRE 3 Méthodologie générale

Table des matières

Cette section présente la méthodologie générale pour l’ensemble de l’expérience. Elle dresse un aperçu du plan expérimental, des mesures effectuées, des instruments et des méthodes d’analyses utilisés de même que les objectifs associés à chaque article.

L’expérience s’est déroulée sur des plants de pomme de terre de deux variétés à croissance déterminée, les variétés Superior et Dark-Red Norland. Les tubercules ont été plantés dans des pots rempli d’un substrat inerte (sable de quartz et vermiculite) lavé à l’eau distillée. Ils ont été installés dans des serres situées sur le campus de l’Université Laval. Les plants témoins recevaient une solution nutritive correspondant à 100% de leurs besoins (annexe A) et trois carences, en potassium, en magnésium et en azote ont été induites à trois niveaux, 15%, 30% et 60% des besoins de la plante en utilisant des solutions nutritives modifiées, la solution témoin servant de base de référence (100% des besoins). Le tout résultant en dix différents traitements : K15, K30, K60, Mg15, Mg30, Mg60, N15, N30, N60 et témoin (Annexe A), répétés cinq fois chacun étant donné qu’ils sont répartis en cinq blocs. Dans les pages suivantes, les figures 8 et 9 présentent la disposition des plants dans les serres pour les années 2002 et 2003, respectivement. En 2003, les deux variétés de pommes de terre n’ont pas été cultivées simultanément. En premier lieu, la variété Superior et ensuite la variété Dark-Red Norland.

Les mesures ont été acquises une fois par semaine débutant, au plus tôt, le 15e jour après l’émergence (JAE). L’ensemble des mesures effectuées comprend une estimation de la teneur en chlorophylle effectuée sur la quatrième feuille complètement déployée, en utilisant un chlorophylle-mètre SPAD 502 (figure 10A) de la compagnie Minolta. Pour chaque plant, cinq mesures de la teneur en chlorophylle sont prises à l’aide du chlorophylle-mètre. Pour les calculs suivants, seule la moyenne des cinq mesures est utilisée. Nous avons donc une mesure par plant, donnée en unités arbitraires. Une estimation de la surface foliaire est elle aussi effectuée sur la quatrième feuille en utilisant un LI-3000 (figure 10B) de la compagnie Li-Cor. Pour chaque plant, une seule mesure est effectuée. Le fichier de sortie comprend, la largeur moyenne (mm), la largeur maximale (mm), la longueur (mm) et l’aire de la feuille analysée (mm2). Des mesures de réflectance ont été acquises pour chacun des plants avec un spectroradiomètre Field Spec Pro (figure 11) de la compagnie Analytical Spectral Devices, inc. Les mesures ont été acquises sous la forme d’un spectre allant de 300 à 1500 nm dont l’intervalle d’échantillonnage est de 1,4 nm. Un spectre est le résultat de dix acquisitions et pour chacune des plantes, nous avons acquis trois spectres (30 acquisitions) qui ont ensuite été moyennés et filtrés (Savitsky-Golay) dans le logiciel MatLab (The MathWorks). Les mesures de fluorescence ont été acquises par un Xe-Pam de la compagnie Walz (figure 12A) en 2002 et par un fluorimètre prototype FLUTE (figure 12B) développé conjointement par Telops et le laboratoire de géomatique agricole et d’agriculture de précision (GAAP), en 2003. Le Xe-Pam et le FLUTE induisent la fluorescence à l’aide d’une lampe au Xénon (Xe). En filtrant la lumière de cette lampe il est possible d’induire de la fluorescence avec de la lumière ultraviolet (UV) ou de la lumière bleue. La fluorescence est mesurée à l’aide de quatre filtres ciblant les longueurs d’onde d’intérêts (440, 520, 690 ou 740 nm). Ainsi pour chacune des plantes, le fichier de fluorescence comprend six mesures correspondant aux quatre longueurs d’onde d’intérêt pour la fluorescence induite par UV, additionnées des mesures aux longueurs d’onde 690 et 740 nm pour la fluorescence induite par lumière bleue.

En 2003, des mesures de fluorescence ont été prises à différents angles (0, 45 et 90°) dans le but d’induire la fluorescence sur des proportions différentes de nervures, tiges et limbe. Pour permettre la mesure de la fluorescence à différents angles, la plante était inclinée devant le fluorimètre en utilisant le système présenté à la figure 13.

Entre les inductions de fluorescence, des images numériques standards rouge, vert, bleu (RVB) de la scène visible par le fluorimètre ont été prises avec une caméra numérique hp315 PhotoSmart de Hewlett Packard. Pour chaque plant, trois images ont été acquises, une pour chacun des angles de mesures. Ces images ont été importées dans Matlab puis dans Arc Info afin que les surfaces du limbe, de la nervure centrale et des tiges soient numérisées par un usager. Le fichier de sortie en format texte comprend l’aire totale de l’image (en pixels), la superficie des nervures+tiges, la superficie du limbe et par soustraction, la superficie de l’arrière-plan.

Des mesures destructives ont été réalisées à la floraison pour les expériences 1,2,4 et 5 et à la fin de la période de croissance pour l’expérience 3. Elles incluent des analyses foliaires réalisées sur la quatrième feuille. Les feuilles ont été séchées à 65°C pendant 48 heures et ont ensuite été broyées. Une digestion acide a été effectuée selon la méthode décrite dans Parkinson & Allen, (1975). La teneur en élément nutritif (P, K, Ca, et Mg) a été déterminée en utilisant un plasma inductif OPTIMA model 4300DV (Perkin-Elmer, Boston, MA). La concentration en azote a été déterminée en utilisant la méthode Quikchem (Zellweger Analytic inc.) sur un analyseur en continu, modèle Quikchem4000 (Lachat Instruments, Milwaukee, WI). Le fichier d’analyse foliaire comprend donc, pour chacune des plantes, la concentration des tissus foliaires en azote, phosphore, potassium, magnésium, calcium, sodium, fer, manganèse, cuivre et aluminium.

En plus de récolter la quatrième feuille, l’ensemble de la biomasse aérienne de chacun des plants a été récolté, séché à 65°C pendant 48 heures et pesé. Les tubercules ont été lavés puis pesés à l’état frais.

Les figures 14 et 15 présentent les mesures effectuées sur les plants lors des deux années d’expérimentation, respectivement 2002 et 2003 et les encadrés de couleur présentent quelles expériences ont été utilisées pour réaliser les articles suivants.

Cette section présente diverses méthodes statistiques utilisées pour le traitement des données : analyse de variance, régression logistique, analyse de covariance et analyse discriminante. Cette section est présentée ici afin d’alléger la structure des articles.

Analyse de variance

L’analyse de variance (ANOVA) permet de détecter les traitements qui diffèrent des autres en comparant leur moyenne. La structure de calcul de l’analyse de variance dépend en grande partie du design expérimental mis en place. Le design le plus simple est certainement le plan complètement aléatoire dans lequel un nombre égal de traitements est attribué aléatoirement aux unités expérimentales sans aucune structure de répartition. L’analyse de variance se base sur un test de Fisher. La valeur du F calculé est déterminée par le ratio de la variance inter-traitements sur la mesure combinée de la variance intra-traitements (Iversen & Norpoth, 1976).

En utilisant des plans d’expérience plus complexes, tel que le plan en bloc complet, il est possible d’extraire les sources de variation du modèle et de déterminer lesquelles ont un effet significatif sur la variable dépendante. Ce genre de dispositif permet aussi de diminuer le risque d’erreur associé à un gradient quelconque (luminosité, température, humidité, pente, etc.). Afin de vérifier l’effet de plusieurs facteurs de même que leur interaction sur des sujets, il est possible d’utiliser des expériences factorielles, pour évaluer, par exemple, diverses carences nutritives sur des variétés différentes. Il pourrait arriver que la réponse de la variable dépendante soit différente en fonction du type de traitement appliqué et en fonction de la variété, il pourrait donc y avoir une interaction significative de facteurs.

Les expériences factorielles peuvent être couplées à des dispositifs expérimentaux complexes du type ‘plan en tiroirs’. Ces dispositifs permettent de randomiser les facteurs principaux en parcelles principales et les facteurs secondaires en sous-parcelles. Ce type de plan devient pratique lorsque certains traitements s’appliquent mieux à des surfaces plus vastes et d’autres à des sous-parcelles. De plus, ce dispositif a pour effet d’améliorer la précision de l’effet associé au facteur en sous-parcelle (Littell et al., 1996). Dans un pareil cas, la structure de l’analyse de variance implique que plus d’un terme d’erreur doit être utilisé. Il est alors important d’inclure des effets ‘fixes’ par exemple, traitement et variété étudié, et des effets ‘aléatoires’, par exemple, blocs. Un effet ‘fixe’ est utilisé lorsque l’on désire étudier une partie d’une population, c’est –à-dire que l’on ne désire pas projeter l’effet d’un échantillon sur la population : on s’intéresse uniquement à cet échantillon. À titre d’exemple, on étudie deux variétés de pommes de terre (Dark-Red Norland et Superior) et l’on ne va pas étendre les résultats de la recherche à toutes les variétés de pommes de terre. Au contraire, un effet ‘aléatoire’ est testé sur un échantillon (par exemple, 5 blocs) et les résultats seront transposés, dans ce cas-ci, à l’ensemble des blocs pouvant exister. Une analyse de variance combinant des effets fixes et des effets aléatoires est aussi appelée une analyse de variance à effets mixtes. Le Tableau 11 présente le tableau d’ANOVA utilisé pour le traitement des données dans la thèse.

Pour pouvoir effectuer une analyse de variance, il est important que les données utilisées suivent une distribution normale et que la variance de la variable dépendante soit homogène pour chacun des traitements.

En plus d’évaluer l’effet des traitements sur les variables dépendantes il est possible de comparer deux traitements afin d’identifier s’ils sont significativement différents, par exemple. Pour ce faire, il est possible d’utiliser un test de comparaisons multiples semblable au test de la plus petite différence significative (LSD) mais basé sur des moyennes pondérées selon les autres effets du modèle au lieu d’utiliser les moyennes arithmétiques (Bélanger, 2002). Pour réaliser de telles comparaisons il est possible d’utiliser l’énoncé LSMEANS des procédures GLM ou MIXED. Cet énoncé affiche les moyennes ajustées de la source de variation ainsi que les tests de T de Student associés aux comparaisons deux à deux.

Régression logistique

En présence de données ordinales, c’est-à-dire, de données non-continues, il n’est pas possible de réaliser une analyse de variance afin de vérifier l’effet des traitements sur ce type de variable. À titre d’exemple, les codes développés par Radtke & Rieckmann, (1991) produisent des données ordinales. Il est donc important que cette variable ne soit pas incluse dans une analyse de variance. Afin de déterminer si deux traitements ont induits des différences significatives de développement dans les plants de pommes de terre il est possible de réaliser une régression logistique (SAS, 1999). Celle-ci, à l’exemple d’un LSMEANS réalisera des comparaisons deux à deux.

Analyse de covariance

L’analyse de covariance est principalement utilisée 1) pour augmenter la précision dans une expérience aléatoire; 2) pour enlever un biais résultant d’une distribution non-aléatoire des traitements; 3) pour enlever les effets de variables perturbantes dans des études d’observations ou 4) pour ajuster les régressions dans les cas de classifications multiples (Wildt & Ahtola, 1978). Nous nous attarderons ici au point 1). Afin d’augmenter la précision d’une expérience il est possible de contrôler la variation externe de deux façons : directement, par le design expérimental, tel que vu précédemment ou indirectement par analyses statistiques. Le contrôle statistique peut être effectué en mesurant simultanément avec la variable dépendante, des variables additionnelles nommées covariables. Il devient alors possible d’extraire la variabilité associée à la relation existant entre la variable dépendante et la covariable, rendant alors plus précise l’expérience conduite. Le gain de précision obtenu en utilisant une covariable dépend directement du degré de corrélation entre la variable dépendante et la covariable. Plus la corrélation sera élevée plus le gain de précision sera élevé (Wildt & Ahtola, 1978).

Pour pouvoir utiliser l’analyse de covariance il est important d’avoir une relation linéaire entre la variable dépendante et la covariable. De plus cette relation doit être la même pour tous les traitements. Si la covariable répond à ces contraintes alors il est possible de l’intégrer dans le modèle de calcul en l’ajoutant du côté des variables indépendantes. Lorsque la covariable ne répond pas à l’ensemble des contraintes, par exemple elle n’a pas la même réponse pour tous les traitements, il ne sera pas possible d’interpréter globalement le résultat de l’analyse de covariance. Il sera alors nécessaire de faire une analyse de covariance et de déterminer des différences significatives par la méthode des moindres carrés à différents niveaux de covariable (UCLA, 2004).

Analyse discriminante

L’analyse discriminante est une méthode qui permet d’étudier les différences entre deux ou plusieurs groupes. Il ne faut pas la confondre avec l’analyse de groupement car dans l’analyse discriminante les groupes sont connus a priori. L’analyse discriminante permet, grâce à la mise en place d’une fonction discriminante, de réattribuer une observation à une classe et d’évaluer le pourcentage de bonne classification. Pour pouvoir effectuer une analyse discriminante certains postulats doivent être respectés : 1) avoir deux groupes ou plus; 2) chaque groupe doit avoir au moins deux échantillons; 3) le nombre de variables doit être au maximum le nombre total d’échantillons moins deux; 4) aucune variable ne doit être la combinaison linéaire d’autres variables entrant dans l’analyse discriminante; 5) les matrices de covariance doivent être à peu près égales entre les groupes et 6) la population de chaque groupe doit avoir une distribution multinormale (Klecka, 1980).

La procédure STEPDISC du logiciel SAS permet, avant même de définir la fonction discriminante, de sélectionner les paramètres les plus efficaces et n’utiliser qu’eux pour former la variable discriminante. Ceci se fait en utilisant des analyses multivariées de type analyse de covariance. Tous les paramètres sont évalués selon une certaine séquence d’entrée et aussi selon leur contribution à la maximalisation du ratio des variances inter-classe sur intra-classe (SAS, 1990).

Il est aussi possible d’effectuer une analyse discriminante canonique grâce à la procédure CANDISC. Il s’agit d’une technique de réduction des dimensions c’est donc dire qu’il y aura création d’une « méga-variable » résultant d’une combinaison linéaire de plusieurs variables. Cette combinaison linéaire sera faite de telle sorte qu’elle fournira une séparation maximale entre les groupes. Les variables canoniques résument la variabilité entre les classes contrairement aux composantes principales qui résument la variance totale (SAS, 1999b).

Utilisation de méthodes statistiques pour l’analyse spectrale

Les méthodes analytiques décrites précédemment sont utilisées en spectrométrie afin de tirer un maximum d’informations des études réalisées. Cette section dresse un portrait des tendances actuelles dans ce domaine. Le Tableau 12 présente les méthodes utilisées par différents auteurs depuis quelques années.

Les régressions permettent d’établir les relations existant entre des variables et de voir comment la variation de l’une affectera la seconde. Les différences significatives et l’ANOVA permettent de détecter si les traitements appliqués ont eu un effet sur la variable dépendante. Les analyses discriminantes permettent de sélectionner les paramètres qui semblent les plus efficaces pour réaliser la discrimination et effectuer ensuite une discrimination entre les traitements (réattribution d’un plant à son traitement, par exemple). Le réseau de neurones est un processus de classification se basant sur l’organisation neuronale des cellules vivantes. Ce sont des modèles informatiques puissants permettant la résolution de problèmes complexes tels : la classification de patrons, l’analyse et la reconnaissance du discours, l’approximation de fonctions, la compression d’images, la mémorisation associative, la formation de regroupement, les modèles prévisionnels de même que l’optimisation et la modélisation de systèmes non linéaires (Zahner & Micheli-Tzanakou, 2000).

Dans les études présentées au Tableau 13, les réseaux de neurones montrent un meilleur taux de classification (un taux d’erreur moindre) que les analyses discriminantes. Cependant la différence entre les deux méthodes n’excède jamais 10 %. Nous suggérons donc de tester le potentiel de classification d’un groupe de variables par analyse discriminante et, selon les résultats obtenus, développer ou non un réseau de neurones, qui sera potentiellement supérieur aux résultats obtenus par analyse discriminante.

Considérant la structure de la thèse, présentée sous forme d’articles, et afin d’éviter la redondance, nous ne présenterons pas la réponse de chacune des variables dépendantes face aux carences induites. Nous présentons plutôt les points ayant le plus grand intérêt scientifique. Le Tableau 14 présente la structure des articles.

Note : ratio V/L = (surface occupée par tiges +nervures) /surface occupée par le limbeCND=diagnostic de composition nutritionnelle

Dans le premier article, nous avons mesurés les effets de trois carences nutritives (N, K, Mg) induites en serre sur des plants de pomme de terre sur les variables associées à la croissance et au développement de la plante. Des mesures de réflectance et de fluorescence ont aussi été acquises et sont présentées en lien avec des variables décrivant la croissance et le développement des plantes. De plus, leur capacité à discriminer les carences est mesurée par analyse discriminante. Pour cet article, nous avons choisi d’évaluer uniquement l’effet des traitements induits sur les variables dépendantes, i.e., ratios de réflectance, de fluorescence, teneur en chlorophylle, surface foliaire, biomasse aérienne, etc. De plus, nous avons choisi de travailler sur les niveaux les plus distincts soient 15% et 100%, parce qu’ils reflètent la tendance observée sur l’ensemble des quatre niveaux. Les deux autres niveaux (30 et 60%) sont toutefois pris en considération dans les articles suivants. Dans la littérature, l’approche à plusieurs niveaux est rarement retenue car les niveaux intermédiaires diluent parfois l’essentiel du contenu. Pour la même raison nous avons choisi de ne présenter que les résultats ayant trait à la variété Dark-Red Norland. Il faut retenir que l’objectif principal de cet article est de détecter des carences nutritives en utilisant la télédétection (réflectance et fluorescence). Nos résultats montrent qu’il est possible de détecter des carences nutritives sur des plants de pomme de terre à l’aide de la télédétection. Cependant, la détection de carences azotées est nettement plus efficace que la détection des carences en potassium ou en magnésium.

Dans le second article, des indices de déséquilibre nutritifs ont été calculés en utilisant les concentrations foliaires en éléments minéraux et le diagnostic de composition nutritionnelle (CND). Les indices de déséquilibres nutritifs peuvent différer des carences induites c’est pourquoi il est important de les calculer. Ces indices nous permettent de mesurer l’état de la plante de même que son adaptation aux stress environnementaux. L’objectif principal de ce deuxième article est de prédire l’état de déséquilibre nutritif (et non pas le traitement induit) d’un plant de pomme de terre, en utilisant la télédétection. Les traitements induits servent à bâtir une population de plants ayant différents déséquilibres nutritifs. Le but de l’article n’est pas de retracer ces traitements mais bien d’identifier les plants en déséquilibre en utilisant la télédétection au lieu d’analyses foliaires, par exemple. Pour atteindre cet objectif, des mesures de fluorescence et de réflectance ont été combinées à un indice de déséquilibre azoté par analyse discriminante canonique. La variable canonique ainsi créée est devenue un nouvel indicateur capable de détecter les plants en état de déséquilibre azoté, par télédétection.

Dans le troisième article, des mesures de fluorescence ont été prises sur des plants soumis à trois carences nutritives (N, K, Mg). Contrairement aux deux articles précédents, ces mesures ont été prises à des angles de mesure différents (0, 45 et 90 degrés) afin de cibler des proportions variables de tiges, de nervures ou de limbe. L’objectif principal de cet article est de vérifier si l’inclinaison du capteur de fluorescence ou si le type de tissus excités influencent le potentiel de détection de carences nutritives par fluorescence. Pour atteindre cet objectif, des photographies numériques ont aussi été prises afin d’identifier les surfaces visibles par le fluorimètre. Ainsi les surfaces représentant des nervures et des tiges ont été numérisées puis délimitées, leur superficie calculée et il a été possible de vérifier que la proportion visible de feuilles et de tiges (ratio V/L) influence effectivement le potentiel de discrimination des carences nutritives induites.

© Marie-Christine Bélanger, 2005