Contemplative practices rooted in Buddhism and stress: Psychophysiological perspective
Details
Download: thèse-LG-OK.pdf (3696.02 [Ko])
State: Public
Version: After imprimatur
License: Not specified
State: Public
Version: After imprimatur
License: Not specified
Serval ID
serval:BIB_04E45F9F2EE9
Type
PhD thesis: a PhD thesis.
Collection
Publications
Institution
Title
Contemplative practices rooted in Buddhism and stress: Psychophysiological perspective
Director(s)
Brandt Pierre-Yves
Codirector(s)
Kliegel Matthias
Institution details
Université de Lausanne, Faculté de théologie et de sciences des religions
Publication state
Accepted
Issued date
2022
Language
english
Abstract
Les incendies délibérés, définis comme un incendie dont le contrôle est perdu à la suite d'une action volontaire, constituent un problème mondial permanent. Ils posent un véritable problème de sécurité publique et ont des répercussions importantes sur les collectivités, nécessitant d'importantes ressources humaines et financières. Les incendies délibérés sont connus pour être l'une des infractions les plus difficiles à comprendre, à détecter et à résoudre. Trois défis majeurs ont été identifiés comme ayant un impact négatif sur leur résolution : l'absence de consensus définitionnel autour des notions des incendies délibérés et de leurs auteurs, la dissimulation d'événements pertinents dans des cas légitimes et la dispersion des données d’enquête dans des systèmes multi-agences disparates.
Les stratégies actuelles en place consistent principalement à déterminer l’origine et la cause de ces incendies délibérés, puis à tenter d’en identifier les auteurs, par une enquête de police traditionnelle et parfois une enquête technique et scientifique. Elles sont ainsi majoritairement au cas par cas. Si cette approche est pertinente pour ces buts précités, elle n’exploite peu ou pas une dimension répétitive (i.e. plusieurs allumages délibérés commis par un même auteur ou groupe d’auteurs) existante et prouvée pour certains types d’incendies délibérés.
La revue de la littérature permit d’établir qu'aucune étude antérieure détectant des répétitions d'incendies volontaires en utilisant des données forensiques n'existait et qu'une solution prometteuse pourrait provenir de l'utilisation du cycle de renseignement.
L’objectif de cette recherche fut alors le suivant : évaluer dans quelle mesure les données incendie collectées par les différentes institutions peuvent contribuer, dans leur forme actuelle, à la détection de problèmes répétitifs tels que des séries potentielles d'incendies délibérés, et à l'analyse de ces séries potentielles.
Cet objectif fut éprouvé par l’application, dans une approche expérimentale fondée sur des cas réels du canton de Genève, des quatre hypothèses de travail suivantes :
1. Les données éparses collectées par les différents partenaires impliqués dans les incendies peuvent être combinées pour former un jeu de données cohérent, pertinent et informatif.
2. Cet ensemble de données peut permettre la détection de problèmes répétitifs tels que des séries potentielles d'incendies délibérés.
3. Les sous-problèmes détectés peuvent être confirmés comme appartenant à des répétitions générales ou spécifiques.
4. Le renseignement qui résulte de cette méthode apporte une valeur ajoutée qui permet d'orienter la décision d'intervention des services forensiques, de prendre des mesures d'investigation, de surveillance ou d'autres mesures (préventives par exemple) pour atténuer les conséquences du problème.
Pour développer une méthodologie, il ne fut pas possible de juste « copier-coller » la méthodologie déjà développée et éprouvée pour la détection d’autres types d’événements répétitifs (comme les cambriolages, stupéfiants, documents, etc.). En effet, comme mentionné précédemment, les trois défis majeurs et spécifiques identifiés (définition, dissimulation et réponse multi-agences) durent être adressés.
Ainsi, bien que largement inspirée du cycle du renseignement, une méthodologie unique et spécifique fut développée pour tester ces quatre hypothèses.
La première étape consista à créer un ensemble de données approprié et informatif, en cinq sous- étapes, à savoir :
1. Identification des éléments constants (ou des moyens de détection des répétitions) au travers d’une revue de la littérature et des cas réels ;
2. Établissement des propriétaires des données ;
3. Collation des données ;
4. Nettoyage/mise en forme des données ;
5. Stockage des données dans une mémoire.
La deuxième étape visa à détecter les répétitions en créant de nouvelles variables issues des variables existantes, en effectuant des analyses de fréquence sur des variables géographiques et des objets brûlés et en effectuant une analyse de séries chronologiques cumulatives sur les événements détectés à haute fréquence à la recherche de pics ou d'anomalies dans les données.
La troisième étape consista à analyser les cas individuels formant ces pics en comparant leur profil pour établir si l'hypothèse d'une répétition était plausible. L'association dans une série des cas présents dans un pic fut réalisée sur la base de similitudes ou de différences explicables. Une fois l'hypothèse d'une série formulée, un profil de série fut construit à partir des différents cas liés. Si les cas ne purent pas être liés, ils restèrent isolés.
Enfin, la quatrième étape consista à déterminer quel renseignement pouvait être produit.
L'application de la méthodologie permit d'identifier les éléments constants suivants : la variable géographique, la dimension temporelle, le modus operandi (MO) et les données forensiques (traditionnelles et issues de l'enquête incendie). Ces éléments constants furent retrouvés dans les données provenant des pompiers et de la police du canton de Genève. Les données furent collectées pour les événements se passant entre 2004 et 2012, donnants lieux à 14 fichiers de différents formats :
- 1 fichier provenant des pompiers avec des informations sur les cas de 8 243 événements répertoriés comme incendie, fumée ou odeur ;
- 9 fichiers ad hoc annuels provenant de la brigade d'enquête incendie contenant des informations sur 5 825 événements incendie ;
- 4 fichiers provenant de la brigade forensique contenant des informations sur 1 068 incendies.
Les données rassemblées représentèrent 15 136 événements cumulés. Après comparaison et réconciliation des événements, le nombre total de cas fut de 9 454. Après un filtrage des données pour éliminer les cas non pertinents restèrent 7 886 incendies considérés comme délibérés et inconnus survenus entre 2004 et 2012. Ces données furent ensuite migrées vers une base de données prototype développée pour cette recherche.
Après avoir créé plusieurs nouvelles variables issues de celles existantes, telles que la variable circonstances et de profil de cas, la détection des répétitions put commencer. Des analyses descriptives sur les variables géographiques et les objets brûlés furent réalisées pour identifier et détecter les fréquences les plus élevées d'occurrences qui pouvaient être des indices de répétitions. Ensuite, les cas formant ces hautes fréquences furent étudiés plus en détail pour déterminer leur nature exacte. Cela fut fait à l'aide des séries chronologiques cumulatives avec une ligne de tendance linéaire, permettant de visualiser si les occurrences résultaient d'une augmentation constante ou soudaine, indiquant une répétition générale ou spécifique (c'est-à-dire une série) respectivement. Les pics furent identifiés visuellement et leurs cas furent extraits pour une étude plus approfondie en examinant leur répartition géographique et leur profil. Si ceux-ci présentaient de fortes similitudes et en l'absence de différences inexplicables, les cas furent liés en série et un profil de série fut créé.
Les analyses non exhaustives des données permirent de détecter neuf répétitions générales possibles et 47 séries potentielles (dont 5 déjà résolues par la police), toutes selon des critères géographiques, temporels ou d’objet incendié. Quatre séries avérées ne furent pas détectées. En ce qui concerne la création de renseignement, les analyses effectuées apportèrent un renseignement minimal car ces analyses furent effectuées de manière rétrospective, le renseignement obtenu ne permit pas de prise de décision permettant d’avoir un impact concret au niveau opérationnel.
Ainsi, les hypothèses H1 (création d'un jeu de données cohérent, pertinent et informatif), H2 (détection de répétitions) et H3 (analyse et détermination des répétitions) furent validées, en tenant compte des différentes limites discutées dans le manuscrit. L'hypothèse H4 (production de renseignement) ne fut que partiellement atteinte, en raison du caractère rétroactif de cette recherche.
Malgré ces résultats encourageants, de nombreux points perfectibles furent identifiés. Tout d'abord, si les données actuellement collectées se sont révélées suffisantes pour l’initiation d’un processus de détection de séries potentielles, elles présentent un fort potentiel d'amélioration. Leur qualité relativement basse (données absentes, incomplètes ou imprécises) conduit à des difficultés d’analyse ainsi qu’à une incapacité à confirmer des liens entre cas. Ceci fut particulièrement le cas au niveau de l'apport des données forensiques, qui fut quasi nul, soit par une absence de données, soit par un manque de pertinence par rapport à nos objectifs. Cet aspect mit en évidence le défi posé par l'utilisation de données incomplètes et démontra, par ailleurs, la nécessité de mettre l'accent sur la collecte de données spécifiques, dans un cadre de renseignement, pour établir des liens entre cas.
La deuxième limitation concerne la méthodologie elle-même. Son application fut affectée par la disponibilité et le manque de fiabilité des données, en particulier les données forensiques. La faisabilité et la mise en œuvre de la méthodologie sur le terrain sont actuellement limitées par un travail manuel important (absence de processus scientifique/mathématique), extrêmement chronophage et augmentant le risque d'erreurs. D'autres limitations existent encore par rapport à la méthode de détection des répétitions. Les pics furent identifiés manuellement par l'opérateur selon des critères relativement subjectifs, créant des incertitudes substantielles. La détermination des différences, explicables ou non, fut également un processus conservant un degré d'imprécision relativement élevé car fondé sur des critères subjectifs. Cette méthodologie ne détecta pas les répétitions qui « se fondent dans la masse » des cas quotidiens. La gestion des données géospatiales fut également difficile. Les profils de séries souffraient
d'un niveau de détail parfois trop général. Enfin, la richesse des données va bien au-delà de nos conclusions et davantage d'analyses devraient être menées.
Bien que ces limitations et améliorations entravent une mise en œuvre opérationnelle immédiate, il est cependant pertinent d'envisager la possibilité d'une future application et transposition de cette méthodologie à une utilisation en routine sur le terrain et en temps réel. Plusieurs perspectives furent suggérées, en considérant l'objectif final comme étant une application en temps réel, ayant un impact concret sur l'investigation des événements. Par conséquent, une méthodologie en temps réel fut suggérée et détaillée dans le manuscrit, intégrant le fait que son application a deux objectifs : d’une part détecter les cas appartenant à des séries existantes et déjà mémorisées dans le système et d’autre part détecter les nouvelles séries au plus tôt.
De plus, dans une application en temps réel, il serait possible d'envisager la création de renseignement en intégrant des données supplémentaires telles que des informations de réseaux sociaux, des caméras de vidéosurveillance, voire des noms et adresses d'auteurs déjà identifiés (tout en tenant compte d'éventuels problèmes éthiques, questions juridiques et de protection des données propres au lieu d’implémentation). Il peut également être intéressant d'envisager l'intégration des tentatives. Il serait également avantageux de supprimer la subjectivité actuelle liée à la détermination des anomalies et des séries possibles, en intégrant davantage de mathématiques et statistiques. Cela pourrait conduire à une automatisation, qui pourrait être appliquée à la collecte, au regroupement, à la normalisation, au filtrage des données, au codage et même à la détection d'éventuelles répétitions.
En outre, ce processus devra s’insérer dans un cadre d’implémentation défini incluant le fait que de nombreuses considérations « administratives » devront être adressées, telles que les ressources humaines nécessaires et leurs compétences spécifiques, les particularités du stockage des données, les gestionnaires de la banque de données et son accès, ainsi que les responsabilités d’analyse et de dissémination du renseignement et des recommandations. De plus, si les incendies délibérés sont considérés comme un problème prioritaire pour une juridiction, il sera pertinent d'établir comment adresser le problème de la carence des données forensiques et comment agir positivement et pertinemment sur leur collecte. Cela pourrait également fournir une opportunité de revoir de manière holistique la gestion globale des incendies en examinant divers modèles dans le monde, par exemple des modèles où la détermination de l'origine et de la cause relève de la responsabilité des pompiers. Cela permettrait une application à tous les incendies, en créant une sorte d'observatoire des incendies, qui pourrait détecter des événements qui ne relèvent pas nécessairement de la responsabilité de la police mais sont des problèmes de sécurité plus généraux.
Notant le caractère exploratoire de cette recherche, qui fut la première du genre sur ce sujet, son intérêt principal réside dans sa méthodologie relativement simple et accessible et dans le peu d'outils spécifiques nécessaires à sa mise en œuvre. Les résultats obtenus démontrent que des techniques simples de traitement et d'analyse des données utilisées permettent déjà la détection de répétitions d'incendies délibérés. Grâce à une redéfinition des flux de données, des outils informatiques simples et des compétences analytiques de base, une telle approche pourrait être mise en œuvre en pratique parallèlement à l'approche actuelle au cas par cas.
Si les résultats obtenus montrent que les données actuellement collectées sont suffisantes pour l’initiation d’un processus de détection de séries potentielles et pour sa création, elles présentent toutefois un fort potentiel d’amélioration, en particulier au niveau de la contribution des données forensiques. Néanmoins, ces résultats permettent d’envisager un premier pas vers une transposition pratique en temps réel de la méthodologie développée, en considérant les améliorations suggérées.
Les stratégies actuelles en place consistent principalement à déterminer l’origine et la cause de ces incendies délibérés, puis à tenter d’en identifier les auteurs, par une enquête de police traditionnelle et parfois une enquête technique et scientifique. Elles sont ainsi majoritairement au cas par cas. Si cette approche est pertinente pour ces buts précités, elle n’exploite peu ou pas une dimension répétitive (i.e. plusieurs allumages délibérés commis par un même auteur ou groupe d’auteurs) existante et prouvée pour certains types d’incendies délibérés.
La revue de la littérature permit d’établir qu'aucune étude antérieure détectant des répétitions d'incendies volontaires en utilisant des données forensiques n'existait et qu'une solution prometteuse pourrait provenir de l'utilisation du cycle de renseignement.
L’objectif de cette recherche fut alors le suivant : évaluer dans quelle mesure les données incendie collectées par les différentes institutions peuvent contribuer, dans leur forme actuelle, à la détection de problèmes répétitifs tels que des séries potentielles d'incendies délibérés, et à l'analyse de ces séries potentielles.
Cet objectif fut éprouvé par l’application, dans une approche expérimentale fondée sur des cas réels du canton de Genève, des quatre hypothèses de travail suivantes :
1. Les données éparses collectées par les différents partenaires impliqués dans les incendies peuvent être combinées pour former un jeu de données cohérent, pertinent et informatif.
2. Cet ensemble de données peut permettre la détection de problèmes répétitifs tels que des séries potentielles d'incendies délibérés.
3. Les sous-problèmes détectés peuvent être confirmés comme appartenant à des répétitions générales ou spécifiques.
4. Le renseignement qui résulte de cette méthode apporte une valeur ajoutée qui permet d'orienter la décision d'intervention des services forensiques, de prendre des mesures d'investigation, de surveillance ou d'autres mesures (préventives par exemple) pour atténuer les conséquences du problème.
Pour développer une méthodologie, il ne fut pas possible de juste « copier-coller » la méthodologie déjà développée et éprouvée pour la détection d’autres types d’événements répétitifs (comme les cambriolages, stupéfiants, documents, etc.). En effet, comme mentionné précédemment, les trois défis majeurs et spécifiques identifiés (définition, dissimulation et réponse multi-agences) durent être adressés.
Ainsi, bien que largement inspirée du cycle du renseignement, une méthodologie unique et spécifique fut développée pour tester ces quatre hypothèses.
La première étape consista à créer un ensemble de données approprié et informatif, en cinq sous- étapes, à savoir :
1. Identification des éléments constants (ou des moyens de détection des répétitions) au travers d’une revue de la littérature et des cas réels ;
2. Établissement des propriétaires des données ;
3. Collation des données ;
4. Nettoyage/mise en forme des données ;
5. Stockage des données dans une mémoire.
La deuxième étape visa à détecter les répétitions en créant de nouvelles variables issues des variables existantes, en effectuant des analyses de fréquence sur des variables géographiques et des objets brûlés et en effectuant une analyse de séries chronologiques cumulatives sur les événements détectés à haute fréquence à la recherche de pics ou d'anomalies dans les données.
La troisième étape consista à analyser les cas individuels formant ces pics en comparant leur profil pour établir si l'hypothèse d'une répétition était plausible. L'association dans une série des cas présents dans un pic fut réalisée sur la base de similitudes ou de différences explicables. Une fois l'hypothèse d'une série formulée, un profil de série fut construit à partir des différents cas liés. Si les cas ne purent pas être liés, ils restèrent isolés.
Enfin, la quatrième étape consista à déterminer quel renseignement pouvait être produit.
L'application de la méthodologie permit d'identifier les éléments constants suivants : la variable géographique, la dimension temporelle, le modus operandi (MO) et les données forensiques (traditionnelles et issues de l'enquête incendie). Ces éléments constants furent retrouvés dans les données provenant des pompiers et de la police du canton de Genève. Les données furent collectées pour les événements se passant entre 2004 et 2012, donnants lieux à 14 fichiers de différents formats :
- 1 fichier provenant des pompiers avec des informations sur les cas de 8 243 événements répertoriés comme incendie, fumée ou odeur ;
- 9 fichiers ad hoc annuels provenant de la brigade d'enquête incendie contenant des informations sur 5 825 événements incendie ;
- 4 fichiers provenant de la brigade forensique contenant des informations sur 1 068 incendies.
Les données rassemblées représentèrent 15 136 événements cumulés. Après comparaison et réconciliation des événements, le nombre total de cas fut de 9 454. Après un filtrage des données pour éliminer les cas non pertinents restèrent 7 886 incendies considérés comme délibérés et inconnus survenus entre 2004 et 2012. Ces données furent ensuite migrées vers une base de données prototype développée pour cette recherche.
Après avoir créé plusieurs nouvelles variables issues de celles existantes, telles que la variable circonstances et de profil de cas, la détection des répétitions put commencer. Des analyses descriptives sur les variables géographiques et les objets brûlés furent réalisées pour identifier et détecter les fréquences les plus élevées d'occurrences qui pouvaient être des indices de répétitions. Ensuite, les cas formant ces hautes fréquences furent étudiés plus en détail pour déterminer leur nature exacte. Cela fut fait à l'aide des séries chronologiques cumulatives avec une ligne de tendance linéaire, permettant de visualiser si les occurrences résultaient d'une augmentation constante ou soudaine, indiquant une répétition générale ou spécifique (c'est-à-dire une série) respectivement. Les pics furent identifiés visuellement et leurs cas furent extraits pour une étude plus approfondie en examinant leur répartition géographique et leur profil. Si ceux-ci présentaient de fortes similitudes et en l'absence de différences inexplicables, les cas furent liés en série et un profil de série fut créé.
Les analyses non exhaustives des données permirent de détecter neuf répétitions générales possibles et 47 séries potentielles (dont 5 déjà résolues par la police), toutes selon des critères géographiques, temporels ou d’objet incendié. Quatre séries avérées ne furent pas détectées. En ce qui concerne la création de renseignement, les analyses effectuées apportèrent un renseignement minimal car ces analyses furent effectuées de manière rétrospective, le renseignement obtenu ne permit pas de prise de décision permettant d’avoir un impact concret au niveau opérationnel.
Ainsi, les hypothèses H1 (création d'un jeu de données cohérent, pertinent et informatif), H2 (détection de répétitions) et H3 (analyse et détermination des répétitions) furent validées, en tenant compte des différentes limites discutées dans le manuscrit. L'hypothèse H4 (production de renseignement) ne fut que partiellement atteinte, en raison du caractère rétroactif de cette recherche.
Malgré ces résultats encourageants, de nombreux points perfectibles furent identifiés. Tout d'abord, si les données actuellement collectées se sont révélées suffisantes pour l’initiation d’un processus de détection de séries potentielles, elles présentent un fort potentiel d'amélioration. Leur qualité relativement basse (données absentes, incomplètes ou imprécises) conduit à des difficultés d’analyse ainsi qu’à une incapacité à confirmer des liens entre cas. Ceci fut particulièrement le cas au niveau de l'apport des données forensiques, qui fut quasi nul, soit par une absence de données, soit par un manque de pertinence par rapport à nos objectifs. Cet aspect mit en évidence le défi posé par l'utilisation de données incomplètes et démontra, par ailleurs, la nécessité de mettre l'accent sur la collecte de données spécifiques, dans un cadre de renseignement, pour établir des liens entre cas.
La deuxième limitation concerne la méthodologie elle-même. Son application fut affectée par la disponibilité et le manque de fiabilité des données, en particulier les données forensiques. La faisabilité et la mise en œuvre de la méthodologie sur le terrain sont actuellement limitées par un travail manuel important (absence de processus scientifique/mathématique), extrêmement chronophage et augmentant le risque d'erreurs. D'autres limitations existent encore par rapport à la méthode de détection des répétitions. Les pics furent identifiés manuellement par l'opérateur selon des critères relativement subjectifs, créant des incertitudes substantielles. La détermination des différences, explicables ou non, fut également un processus conservant un degré d'imprécision relativement élevé car fondé sur des critères subjectifs. Cette méthodologie ne détecta pas les répétitions qui « se fondent dans la masse » des cas quotidiens. La gestion des données géospatiales fut également difficile. Les profils de séries souffraient
d'un niveau de détail parfois trop général. Enfin, la richesse des données va bien au-delà de nos conclusions et davantage d'analyses devraient être menées.
Bien que ces limitations et améliorations entravent une mise en œuvre opérationnelle immédiate, il est cependant pertinent d'envisager la possibilité d'une future application et transposition de cette méthodologie à une utilisation en routine sur le terrain et en temps réel. Plusieurs perspectives furent suggérées, en considérant l'objectif final comme étant une application en temps réel, ayant un impact concret sur l'investigation des événements. Par conséquent, une méthodologie en temps réel fut suggérée et détaillée dans le manuscrit, intégrant le fait que son application a deux objectifs : d’une part détecter les cas appartenant à des séries existantes et déjà mémorisées dans le système et d’autre part détecter les nouvelles séries au plus tôt.
De plus, dans une application en temps réel, il serait possible d'envisager la création de renseignement en intégrant des données supplémentaires telles que des informations de réseaux sociaux, des caméras de vidéosurveillance, voire des noms et adresses d'auteurs déjà identifiés (tout en tenant compte d'éventuels problèmes éthiques, questions juridiques et de protection des données propres au lieu d’implémentation). Il peut également être intéressant d'envisager l'intégration des tentatives. Il serait également avantageux de supprimer la subjectivité actuelle liée à la détermination des anomalies et des séries possibles, en intégrant davantage de mathématiques et statistiques. Cela pourrait conduire à une automatisation, qui pourrait être appliquée à la collecte, au regroupement, à la normalisation, au filtrage des données, au codage et même à la détection d'éventuelles répétitions.
En outre, ce processus devra s’insérer dans un cadre d’implémentation défini incluant le fait que de nombreuses considérations « administratives » devront être adressées, telles que les ressources humaines nécessaires et leurs compétences spécifiques, les particularités du stockage des données, les gestionnaires de la banque de données et son accès, ainsi que les responsabilités d’analyse et de dissémination du renseignement et des recommandations. De plus, si les incendies délibérés sont considérés comme un problème prioritaire pour une juridiction, il sera pertinent d'établir comment adresser le problème de la carence des données forensiques et comment agir positivement et pertinemment sur leur collecte. Cela pourrait également fournir une opportunité de revoir de manière holistique la gestion globale des incendies en examinant divers modèles dans le monde, par exemple des modèles où la détermination de l'origine et de la cause relève de la responsabilité des pompiers. Cela permettrait une application à tous les incendies, en créant une sorte d'observatoire des incendies, qui pourrait détecter des événements qui ne relèvent pas nécessairement de la responsabilité de la police mais sont des problèmes de sécurité plus généraux.
Notant le caractère exploratoire de cette recherche, qui fut la première du genre sur ce sujet, son intérêt principal réside dans sa méthodologie relativement simple et accessible et dans le peu d'outils spécifiques nécessaires à sa mise en œuvre. Les résultats obtenus démontrent que des techniques simples de traitement et d'analyse des données utilisées permettent déjà la détection de répétitions d'incendies délibérés. Grâce à une redéfinition des flux de données, des outils informatiques simples et des compétences analytiques de base, une telle approche pourrait être mise en œuvre en pratique parallèlement à l'approche actuelle au cas par cas.
Si les résultats obtenus montrent que les données actuellement collectées sont suffisantes pour l’initiation d’un processus de détection de séries potentielles et pour sa création, elles présentent toutefois un fort potentiel d’amélioration, en particulier au niveau de la contribution des données forensiques. Néanmoins, ces résultats permettent d’envisager un premier pas vers une transposition pratique en temps réel de la méthodologie développée, en considérant les améliorations suggérées.
Create date
05/07/2022 10:06
Last modification date
12/07/2022 6:08