Translate

Spiritualité, Covid-19 et Ancêtre : L’échec de la perception de la réalité en trois dimensions

 Spiritualité, Covid-19 et Ancêtre : L’échec de la perception de la réalité en trois dimensions

Par les sens, en nombre de cinq, avec lesquelles la réalité se dessine et prend forme, mettent en commun les vrais concepts de base qui définissent intuitivement c’est que véritablement la réalité. Certains essors, pourtant de pures réalités, les deviennent concrètement, une fois que nous eussions approuver un sens logique subjectivement à son égard. Certains incidents dépassant le cadre de la réalité que l’on s’imagine, y demeurent par le fait qu’elles soient tout simplement impossibles dans l’irréalité complexe. Alors, qu’est-ce que la réalité ? En quoi ses trois dimensions apportera -t-il des nouveaux pour clarifier ses ambigüités ? C’est l’objet principal de ce present travail, qui se contentera de servir un support essentiel pour démêler les trois dimensions en possession de la réalité.
La première forme de la réalité précède, en effet, les différents états de la nature et sur la même lignée d’ordre que l’état de connaissance sur l’origine de l’univers, la maitrise de la spiritualité dépasse le cadre de la matière physique. Des observations expérimentales en concordance avec la métaphysique nous ont permis d’identifier la spiritualité sous plusieurs critères dont quelques-unes parmi tant d’autres à savoir l’immortalité ; l’inexistence en genre ; le non engendrement ; les capacités surnaturelles ; l’indépendance vis-à-vis du temps et des énergies sous forme des nutriments ; le non vieillissement ; le non endormissement…etc. Nos énergies spirituelles membres de la famille des êtres non matériels exercent comme fonction principal, l’interconnexion des organes vitaux pour le maintien de l’individu à la vie. C’est d’ailleurs la séparation d’une telle paire, âme-corps, qui en devient l’origine effective de la mort. Telle est la promesse de chaque naissance, qui atteint son terme généralement par un disfonctionnement d’un de ses organes vitaux, pour faire valoir un prétexte de séparation de l’union âme-corps. Il n’est pas, sans doute, un privilège de la science d’étudier la phase de pénétration de cette énergie intracellulaire dans le corps. C’est une réalité que la logique ne se montre cependant pas habile à rattraper pour en élucider.
De part cette première dimension de la réalité, le monde de microorganisme est aussi une autre vision de la réalité. Ces espèces vivantes, ayant le même caractère sur le plan de la spiritualité que nous, illustre presque pareillement tous nos principes mais dans une dimension bien différente. Le célèbre Covid-19 et d’autre éléments pathogènes et mortels réalisent les mêmes accomplissements que celui d’un neutron bouleversant un noyau d’uranium, quand il s’agit de pénétrer un corps sain qui unis un être immatériel et un corps. Cet élément échange avec nos cellules d’un organe particulier par le biais d’un programme génétique qu’il dispose. Bien que certains virus soient récents, la similitude en information génétique laisse montrer les failles et l’obsolescences de nos informations génétiques face au potentiel de ces virus.
En vérité, la communauté scientifique attache la ligné humaine à l’homme habilis et antérieurement à une espèce de variété de singe, qui me semble de mauvais foie, pourrait se montrer significative dans le cadre d’une étude de classification des protéines des molécules d’acide désoxyribose nucléique des différentes espèces, que de se limiter sur le nombre de chromosomes et la ressemblance morphologique des espèces pour en tirer une information relative, hâtive dont les conclusions sont extrêmement déformées et à prendre du recul.

La dimension secondaire de la réalité est le monde vivant et ses lois des créatures de microorganismes. Or il est de connaissance que le programme génétique des virus accommode ceux de nos cellules. Alors convient-il de dire que les programmes ARN détourne en s’infiltrant dans celui de l’ADN ? Le déséquilibre de force qui en résulte nous ramène à intervenir pour neutraliser et transmettre des informations à nos cellules sur ses éléments pathogènes. La raison pour laquelle l’appellation de vaccination s’en est popularisé au détriment de nous surpasser de cette faiblesse de la lignée humaine.
En principe, nous sommes arrivés à communiquer avec des cellules naturelles sur un language matériel pour contenir les potentiels des virus. Il se doit sans équivoque à l’innovation des mesures pour parvenir à protéger ce monde de microorganisme qui constitue l’essence de nos bien-être et la base de notre existence, puisque c’est l’aspect visible qui nous définit dans la réalité intuitive avant tout. Il ne peut se matérialiser en effet, par le déchiffrement de l’ensemble des protéines de la molécule d’ARN du virus, de le transformer en une matrice de big data. Ce réarrangement permettra de réaliser des combinaisons de substitutions, des sélections des sous programmes pour des manipulations plus complexes. Or par cette initiative, il nous sera possible de tracer en avance tous les potentiels que disposent un virus bien avant sa mise en action. En classifiant tous ses capacités, des multiples solutions de neutralisations ou d’autodestructions peuvent en découler. Car, en effet, ces informations sont ultimes pour contrôler en si peu de temps un virus dont ses effets néfastes restent à découvrir. Les étapes des virologues me semblent entrepris à l’envers. C’est pourquoi cela demande des années pour en éradiquer.
La troisième dimension de la réalité prend forme avec nos cinq sens de la vue à l’odorat, en passant par l’ouïe ; la touche et le gout. Effectivement, la réalité non imaginaire de la spiritualité, puis son essoufflement dans un organisme ou microorganisme et enfin la relation entre microorganisme et organisme pour en exposer rien que deux dimensions de la réalité. La dernière nous est familier, mais elle est déterminée par ses valeurs, que j’appelle ici « ancêtre ou nos ancêtre ». L’origine d’un individu tout comme l’aliénation à l’égard de l’expérience de nos passés nous est d’une extrême utilité. Cet épicentre peu importe de quelle histoire elle dérive, sert d’un pilier pour le développement personnel, qui contribue à la civilisation. Par vérité, l’histoire a ses versions, que ces versions ont leurs intérêts spécifiques. Si la civilisation africaine à su dominer le monde malgré les mésopotamiens et les grecques, c’est grâce par une culture bien bâtis et en trahir celle-ci revenait à se ruiner, cela se montre avec la victoire des romains. Suite aux observations pluriannuelles des réussites scolaires dans les établissements africains, les meilleures d’entre eux sont ceux attachés à leurs cultures. C’est parce qu’ils sont arrivés à comprendre qu’il faut concilier la culture et la civilisation étrangère. Si l’on regarde la Chine, la Turquie, le Cuba, l’Iran…etc., ces pays en témoignent sur la véracité incontournable de la culture dans le développement. L’agence francophonie et les valeurs occidentales ne brillent que pour atteindre à la confiance que l’on accorde à sa propre culture, mais aussi à intimider les valeurs ancestrales et locales d’un peuple. Une façon d’inventer des cultures parasitaires autour d’une culture qui elle-même dérive de la source originaire du rift de l’Afrique de l’Est où l’humanité prend naissance.


Abdi-Basid ADAN

Perspectives Inédites sur la Conscience


Perspectives Inédites sur la Conscience

La conscience est définie communément comme cette propriété que les êtres vivants se vantent pour faire valoir leurs existences, d’être animer, de pouvoir participer, agir et jouer un rôle, qui à leurs yeux semblent essentiels dans la vie. Une caractéristique parmi tant d’autre, se tenant au premier plan et qui consiste à lamise en connaissance immédiate de l’état de circonstance. En termes classiques, c’est agir et en même temps savoir que l'onagit. Par opposition à l'inconscience, qui lui se manifeste dans des situations de comportements irréfléchis ou par des accomplissements automatiques. Freud, le dit clairement, "le moi n’est pas le maitre dans sa propre maison". Excepté ce dernier, « le ça », prend relai également et s’identifie comme le réservoir pulsionnel et le surmoi, comme l’instance des interdictions et idéaux.  Le sujet n’est plus une entité soudée, mais une réalité auto conflictuelle.
Dans ce présent article, ayant pour vocation première une contribution sur la notion de la conscience et ses dérivés (la préconscience, l’inconscience) connu jusqu’à nos jours. Avec ce nouvel horizon, qui s’annonce plus que jamais élargir les percepts de la conscience avec des perspectives prêts à être exploiter, il s’agit entre autres l’hyperconscience et l’hypoconscience.
Tout comme Christoph Colombe à la quête de l’Amérique, la conscience est certes interprétée, indirectement quand l'âme est à la conquête du système psychisme. Une jouissance sur des multiples capacités à sa disposition. Mais, il semble au préalable et sur la même longueur d'onde de l'imperfection observée dans la vie présente, ramène sans épargner la conscience à définir ses défauts et limites, constituant ainsi l'objet fondamental de l'inconscience.
A l’instar de ces articulations, il ressort farouchement que la conscience devient la coordination entre le système psychisme et le souffle vital (âme), la conservant ainsi en action continuelle à travers les charges électrifiées des neurones. Il est impératif de mettre hors de l’ombre et loin de la confusion, un sujet emblématique, celui concernant les espèces de même famille intangible. En ce termes, l’âme n'est pas assimilé à un esprit. En outre, ce dernier se ramifie en plusieurs sous espèces dont certains semble plus hostile à l’homme. Par leur caractère mal veillant, un esprit démoniaque peut se permettre de remplacer l'âme dans la colonisation du psychisme à des degrés différents. Il n’est pas ahurissant de voir une forme de fidélité d'entende entre l'âme et l'esprit dans cette vie. Or, il se trouve que l'âme n'agit pas seule dans sa prise de décision, dans ses actions.
L'hyperconscience consiste l'action propre de l'âme quand celui-ci ne soit pas biaisée par toute forme d’influence extérieure spirituelle directe ou indirecte. Par opposition, à l'hypoconscience,  l'âme se voit contraint de céder pour un ou plusieurs esprits, la gestion du psychisme autrement dit la conscience se met au service d’un autre acteur spirituel. Par-là, il y’a lieu de comprendre que le corps aussi mystique qu’il en soit, ne devientqu’une simple identité visuelle pour ces êtres invisibles.
D’autant plus que des moments de l'hyperconscience soient presque similaires à l’état de la conscience. La différence avec le surmoi étant l'auto jugement de façon neutre sur ses propres actes accomplis. Une forme de regret ressentit à l’égard d’une action accomplie pour un motif de recherche soi-disant « état d’après désobéissance ».Contrairement à se que Sartre le dit dans l’Être et le Néant, « autrui est, par principe, celui qui me regarde et par le regard duquel je prends conscience de ce que je suis ». Ici, par contraste, ce n’est nullement un autrui qui fige sa propre liberté d’action mais son soi-même divulgue à quel degré de prosaïsme s’est-il permis d’exercer.
Autre par amplification de la notion de la conscience, il est de l’ordre du jour de la mise en clarté pour une spécification entre la conscience humaine, outre que l’animal, celle spirituelle. En ce terme, l’âme, une fois dans le corps, sa conscience est immédiate et n’est pas pourvue de mémoire. C’est -à-dire elle n’a nullement besoin de l’expérience. Car en effet, un bébé avec son environnement externe et montre surtout qu’il est dominant. Comment se fait-il sans qu’une expérience ne lui soit transmis ? C’est par la conscience spirituelle que cette remise en cause s’explique davantage. A défaut du décès d’une personne la conscience humaine s’arrête, mais celle spirituelle continue toujours.
Allons encore plus loin, du même avis que Einstein, lui qui avoir affirmé que la science sans religion est boiteuse et que la religion sans science est aveugle. Dans cette perspective, l’islam confirme la moindre connaissance qui nous est partagée sur l’âme et qu’il est parmi les anges l’être qui se voit le plus attribué de valeur. Nous nous rendons compte que l’homme se voit supérioriser dans plusieurs contextes. Exemple de manifestation : le cas de l’antisémitisme,du racisme, de l’ethnisme, y compris la vanterie.



Abdi-Basid ADAN
Phematician
abdi-basid@outlook.com

Intégration et Cointégration des Variables (ICV)


Résumé 
Dans ce présent rapport, nous exposons un aperçu général sur les notions de stationnarité (intégration) et de cointégration des variables. Bien qu’elles occupent une place importante en statistique et en économétrie, leurs concepts ont, pour beaucoup de chercheurs, été un peu flous. Je me permets d’en étayer davantage en proposant que l’essentiel du point de vue théorique et empirique sur l’intégration et la cointégration des variables.
Keys Words: ARDL, Box-Jenkins, Engle & Granger (1987), Johansen (1988)


Introduction
Une variable temporelle, un processus de courte ou de longue mémoire nécessite avant d’être analyser, une étude permettant de soulever les grandes caractéristiques d’une grandeur sur le plan statistique. Il s’agit entre autres, sa tendance ; sa saisonnalité ; sa stationnarité, sa loi de probabilité ou sa densité, …etc.  L’une de volet très intéressant et qui dans la plupart des cas se présente est la question de la stationnarité de la chronique. Plusieurs procédés sont à notre disposition pour sa mise en œuvre. En outre, l’intérêt de cointégrées les variables dans le cas d’une combinaison linéaire est devenu viral dans les études économétriques. De peur de présenter un modèle illusoire avec des coefficients hors normes, la littérature se dépêche de proposer un tas d’outils pour venir contourner cet obstacle majeur en économétrique. Dans les sections suivantes, nous présentons la stationnarité de la variable de manière plus concise et discutons par la suite la notion de cointégration.





I.                   Intégration des Variables (IV)

Une des notions fondamentales en statistique et en économétrie est effectivement celle liée à l’intégration des variables. Qu’est-ce que, véritablement l’intégration des variables ?  Il se trouve qu’en statistique, l’idée de non-stationnarité est plutôt couramment utilisée par rapport à celle d’intégration des variables. Or, la signification de cette dernière est polyvalente d’une discipline à l’autre.  En statistique, un processus temporel fluctuant indépendamment du temps est dit stationnaire. Par illustration (chronogramme et corrélogramme), on peut assister une concentration de la chronique autour de sa valeur moyenne (espérance mathématique) ou une décroissance rapide de la fonction d’autocorrélation. En termes de probabilité, la distribution jointe (loi ou densité) est identique pour les k et les k+1 premières variables. En ce sens, le processus est stationnaire au sens stricte (dit aussi de premier ordre ou fort). Pour en dire plus, quel que soit l’instant t considéré, la variation de la chronique en t et t+1 est n’est pas influencé par le référentiel temporel. De ce point de vue, ses propriétés, connue aussi sous la désignation « conditions de stationnarité » à savoir la moyenne, la variance et la covariance sont tous convergentes et indépendantes du temps. Vue de la complexité que relève l’estimation d’une la loi de nature probabiliste pour une distribution donnée, il a été proposé pour remédier à cela, un second sens de stationnarité dite stationnarité au second ordre (sens faible ou à covariance). Seules les conditions de l’espérance et la variance de la variable sont requises et indispensables pour pouvoir juger et affirmer sur la stationnarité à l’encontre d’une variable. Sachant la troisième condition inclut également à la seconde lorsque k est nul (cov(xt,xt-k)). Celle-ci assure un rôle pionnier notamment dans la prévision d’une série temporelle. En principe, l’intervalle de confiance des valeurs estimés en dépend pour sa validité.  Il est mentionné dans la littérature l’existence d’une multitude forme de non-stationnarité d’une suite temporelle parmi lesquelles la stationnarité avec tendance (TS : Trend Stationnarity, Nelson et Plosser ( 1982)), qui graphiquement, on assiste à une évolution croissance de la série au cours du temps : de ce fait, les conditions de stationnarités ne sont pas remplies. Pour contourner cette adversité et obtenir par la suite la série dépourvue de composante tendancielle, nous avons aux choix une de trois techniques notamment par droite de moindres carrés ordinaires, moyen mobile simple ou encore par le filtre Hodrick-Prescott. On obtient par-là, un bruit blanc Hamilton (1994), par définition stationnaire mais de second ordre. Dans le vocabulaire statistique, on évoque aussi le bruit blanc indépendant, du fait de l’indépendance entre les variables, qui implique la nullité de la valeur de la covariance ou simplement la décorrélation entre les variables (la réciproque étant déjà fausse). Parfois de nature gaussien, il est, à la fois indépendant et suit une loi normale. Dans ces conditions, le bruit blanc est strictement stationnaire (ou stationnaire au sens strict). A la différence, un processus stochastique n’est pas forcement stationnaire.  La deuxième forme de stationnarité, quant à elle est de type stationnarité par différence (DS : Difference Stationnnarity, Nelson et Plosser ( 1982)). Elle est dû, en particulier, à l’influence de la série par ses propres valeurs historiques. En évidence, la différenciée selon un ordre bien diffèrent de zéro permet de stationnariser la série.   Dans la pratique, deux familles de test de stationnarité s’annoncent. C’est en effet, d’une part le test ayant comme hypothèse nulle de stationnarité (Test KPSS) et d’autre part, les tests ayant comme hypothèse nulle de non-stationnarité (Test de Dickey-Fuller ou Phillips-Perron). Encore plus, une variable peut être stationnaire avec constante et tendance ; ni l’un et ni l’autre ou avec constante seulement, selon les significativités de ces paramètres. La nuance qu’il semble adéquat de préciser est celle de se dire comment une série peut être stationnaire avec tendance, alors que c’est la composante tendancielle qu’il faut la dénuée. Assez logique, en réalité, ça voudrait dire la même chose et non vue comme deux proposition différentes ou contradictoires. En un mot, l’intégration de variable consiste à priver de la série chronologique de toute perturbation tendancielle ou historique pour pouvoir identifier la série stable afin de s’en servir dans des analyses variées. Enfin, c’est avec l’aval de cette étape primordiale et impérieuse que l’on peut se permettre d’entamer l’estimation des modèles suivants précisément modèles de Box-Jenkins (ARIMA, SARIMA, VAR, ARMAX,…etc) ou encore Engle (ARCH, GARCH, …etc).



II.               Cointégration des Variables (CV)

La cointégration est indispensable dans l’analyse bidimensionnelle aussi bien en statistique qu’en économétrie. Nous sommes conscients de l’erreur imminent que peut nous conduire la prise en compte simultanée de deux ou plusieurs variables sans avoir eu recours au préalable une étude par variable. En quelque sorte, « mieux d’abord évaluer chaque variable avant de la considérée serviable ». Introduite en économie par Engle et Newbold (1974), puis développé par Granger et Engle (1987) et poursuivie en 1991 par Johansen, la notion de cointégration est en effet, l’intégration de la combinaison linéaire entre deux variables prise ensemble auxquels des tests dans la littérature nous permet d’affirmer en cas de présence de vecteur de cointégration. Il s’agit à savoir le tests Engle et Granger (1987) ; Johansen  (1988) ; Johansen  et Juselius (1990), …etc. Il est si fréquent de se retrouver avec le problème de régression fallacieuse dans la modélisation des variables, en raison d’une régression linéaire sur des variables non-stationnaires, qui témoigne en principe, un pouvoir explicative R² et un t de Student très appréciables alors qu’en réalité, il n’existe aucun relation entre elles . Dans cette optique, la distribution des paramètres estimés ne suit plus une loi de Student mais un  processus de Wiener (mouvement brownien), qui survient quand la variance au moins de l’une des variables diverge, du fait de sa dépendance au dimension temporelle et bien identifiable avec procédure de récurrence. En effet, des bonnes perspectives de l’analyse résiduelle accompagne pour la validité finale du modèle. Lorsque le résidu n’est pas stationnaire, elle est assimilée au cas de présence d’autocorrélation entre les résidus du modèle. L’ordre d’intégration du modèle résiduelle n’est pas forcement au deçà de ceux des variables du modèle. En évidence, une composante résiduelle du modèle stationnaire à un ordre diffèrent de 0 est considérée comme un modèle où l’autocorrélation des résidus est imminente. Autrement-dit l’autocorrélation et la stationnarité s’implique indirectement au travers de la dernière condition de la covariance (au sens faible de stationnarité).  Le but de la cointégration est de pouvoir déterminer un résidu stationnaire tout en travaillant sur deux variables non stationnaires en niveau. L’idée proposé par Engle va dans la sens qu’à court terme les variables divergent, mais existe à long terme une stabilité, un équilibre entre elles. Une évolution commune des variables. Or connaissant la possibilité d’une cointégration d’ordre non nul, à long terme la perspective souhaitée existe selon des conditions bien définis en amont et en aval. Parmi lesquelles le même ordre d’intégration des variables, vérification de la possibilité de cointégré les variables, autrement dit un ordre inférieur ou égal à l’ordre commune d’intégration des variables. Outre, en aval, un signe négatif et significatif du coefficient de force de rappel à l’équilibre (ou vitesse d’ajustement) est requis tout en vérifiant la stationnarité de résidus obtenus. Le théorème de Granger (1983) met en évidence la relation de cointégration et du modèle à correction d’erreur. L’estimation de relation de court terme avec MCO n’est possible que quand on différencie les variables. En d’autres termes, en intégrant dans le modèle, les variables retardées comme explicatives. En revanche la relation de long terme sont estimées en niveau par MCO. Aucune méthode n’est parfaite, en ce sens, l’inconvénient de l’approche Engle-Granger (1987) est la non-distinction de relation de cointégration. En principe, elle ne présente qu’une seule relation de cointégration, alors qu’elle est de nombre k-1 relation avec k le nombre des variables. Johansen (1988) apporte une solution à cette problématique avec son approche multivariée de maximum de vraisemblance.  Pour la validité du modèle VECM, il faut un rang de cointégration inférieur au nombre de variable et non nul, qui est mise en évidence par la maximisation du log de vraisemblance. Dns le cas contraire, un modèle VAR(p) est estimé à la place d’un VECM. D’autre part comme dans le modèle Vectorielle autorégressif, la spécification du modèle selon l’absence ou la présence d’un constant et tendance est nécessaire. On peut les déterminés avec leurs significativités une fois estimé.  La méthode à une seule étape de BANERJEE et al. ou MCE à la Handry permet de faciliter l’interprétation de la relation de long terme. En outre, pour estimer les relations à long terme dans le cas sur petits échantillons, le modèle à deux étapes pourrait conduire à de biais d’estimation selon Banerjee, Dolado, Hendry et Smith (1986).  La modélisation ARDL « AutoRegressive Distributed Lag/ARDL » et le test de cointégration aux bornes de Pesaran et al. (2001) ont une approche de nouvelle venue pour pallier le cas de cointégration des variables à des différents ordres de stationnarités. En revanche, quand l’ordre d’intégration de variable est supérieur à 1, l’application du modèle ARDL pose un problème.

Conclusion 

La stationnarité est plus que jamais une condition d’étude préalable sur les variables avant leurs introduisons dans des études plus considérables. Il s’agit de dénuer du processus temporel des perturbations tendancielle et historiques avec des procédures appropriées pour pouvoir mener des analyses statistiques et économétriques. De même, la cointégration s’avère encore plus complexe, du fait que l’on désire s’intéresser à travailler sur des variables en niveau, tout en évitant que la régression ne soit fallacieuse. Plusieurs approches se pressent, l’une plus performant que l’autre. Dans les deux cas, ces notions ne peuvent être prise avec négligence, car une production scientifique fondé sur le processus temporel en dépend inévitablement.



Bibliographie :

1.       Atoumane Diagne (2015) : Modélisation économétrique de la consommation d’électricité au Sénégal de 1999 à 2015
2.       Hélène Hamisultane: Modèle à correction d'erreur et applications
3.       Jonas Kibala Kuma (2018) : Modélisation ARDL, Test de cointégration aux bornes et Approche de Toda-Yamamoto : éléments de théorie et pratiques sur logiciels
4.       Lonzo Lubu Gastonfils (2015) : Application De La Methode De Prevision De Box-Jenkins

Une substance stupéfiante : La chance


La vie sur Terre ne semble pas tenir sur la même droite que celle fut dans le paradis à Adam et Êve. Sans doute, elle est assimilée à une lutte vulgaire pour la survie non seulement pour l’Homme y compris les animaux. C’est plutôt un terrain auquel toutes les espèces sont invitées à développer un savoir-faire au profit de leurs pérennités. Certaines fois, on a l’impression de voir que la vie pour les animaux semble mieux aisée qu’elle ne l’est pour l’Homme.
Du fait du haut de sa conscience, l’être humain est plus que jamais contraint à travailler. Un dur labeur pour subvenir à ses besoins et à celle de sa communauté. Alors, les efforts proprement-dites sont-ils en rapport avec la chance ? Ou encore la Réussite est-elle la combinaison d’un ensemble d’efforts et de chances ? pour y parvenir à consentir des principes suffisamment convaincants, imaginons que nous soyons amenés à progresser pour une sélection finale, une ultime étape.
Il faut que l’on sache que les courages et les peines accumulés n’ont souvent pas tendances à s’égaler aux valeurs escomptées. La situation finale n’est pas plutôt en volteface mais peut se faire valoir être en faveur du consentement d’un individu soit au pire des cas, le contraire.
Comment expliquer un tel phénomène pareil dans la vie courante ? Sans doute, plusieurs d’entre vous, solliciteront le rôle de la chance. Dans cette condition, la chance assume-elle sa part de responsabilité dans l’évolution de chaque épreuve ? Est-elle injuste pour certain qu’elle ne l’est pour d’autre ? une première de chose que nous pouvons légitiment envisager et qui saurait un point commun entre les différents lecteurs : c’est celle de concevoir d’abord l’essence de la chance. Elle est définie comme étant un aléa, un hasard, une vraisemblance. Mais quantifiable et qui est mesurée par une probabilité, le nombre de chance qu’un évènement puisse avoir lieu.
Revenons-y sur l’expérience de la qualification finale pour entrevoir la cohérence. Imaginer que vous faites partie alors de ces finalistes. Vous êtes amené à faire un choix entre quatre lettres ‘A’, ‘B’, ‘C’ et ‘D’. Comme l’expression chance commence par la lettre ‘C’, nous allons prétendre dire que ‘C’ est la bonne option
parmi les autres. Autrement-dit chaque individu des finalistes auront chacun 25
chances sur 100 de célébrer leur moment de gloire.
Malgré vos efforts et la détermination que vous vous êtes engagés pour venir à
la hauteur de vous-même, encore soit-il que le résultat attendu ne saurait guère une
suite directe de vos engagements. Pour ainsi dire que la chance n’est pas observable
mais estimable. Elle est identique pour chaque individu et par conséquent neutre. C’est
plutôt notre libre arbitre qui en détermine la cause première de nos choix, des
conséquences de nos travails et des décisions prisent continuellement dans nos vies.
Cependant, comment allons-nous expliciter la notion absurde qui se rattache à
une situation favorable que pourrait avantager une personne physique ou morale ou
encore un Etat. Il s’agit clairement une longueur d’onde d’avance pour l’individu
possesseur que celui qui en est privé. La chance est-elle dans ce cas un privilège ?
autrement-dit le privilège est-il lui-même une chance ? A juste titre d’exemple, on se
rend compte que les avantages comparatifs entre les pays sont bien complémentaires
sur le plan économique. Il convient de dire qu’il est plutôt bénéfique pour tous, c’està-
dire une externalité positive multilatérale.
Abdi-Basid ADAN

Une information pertinente, prouesses de Data Science, Big Data et de l’Intelligence Artificielle


La révolution américaine a sans équivoque permis à certain nombre
d’américains de maitriser le globe terrestre. Au point même qu’ils sont capables de
retracer l’activité d’une personne donnée ou de prédire ses propres intentions. Une
information pertinente à la place des milliards de dollars de dépenses, qui seront
éventuellement susceptible de partir en fumées.
Elle est aussi efficacement au détriment des efforts colossales voués presque
à l’insignifiant. Il s’agit d’une information au bon moment ! et au bon contexte ! Le « trou
noir » de la toile des principaux réseaux à savoir YouTube, Facebook, Google sont les
personnes non voyantes.
En vérité, ils ne peuvent s’en servir de cette technologie ni par leurs ouïes, leurs
odorats, ou par leurs sens, il faut la vue pour être connecter et laisser ses empruntes
artificielles dans la toile. Ces populations sont à l’abris des méfaits de la civilisation
américaine.
Le Data science ou manipulateur des données massives, collectées illicitement
sur des milliards d’individus à travers le monde constitue ce qu’on appelle le Big Data.
C’est un véritable trésor pour enfin se permettre de tout connaitre. La maitrise totale
de chose. Rien, en quelque sorte ne doit échapper à un certain décideur, du haut de
la pyramide mondiale.
Le progrès technique, bien connu par ses effets positifs incommensurables, son
cercle vicieux engloutie sans indifférence presque tous ce qu’il trouve sur son passage.
Nous l’avions vu à la suite de l’avertissement de Einstein au président Roosevelt sur
le projet nucléaire du régime de Hitler, qui a finalement été la conséquence de l’horreur
et de la fureur de Roosevelt au Japan.
L’intelligence artificielle ou machine non pensante mais simulatrice de
l’intelligence humaine nous doit pas nous laisser insurger mais soyons plus sceptique
toujours. On se tremperais davantage de dire que les peuples précédents n’ont pas
eu la chance de découvrir le bien faits de notre époque.
Etant donné que le monde soit fermé et que rien ne se perd, rien ne se crée,
mais tous se transforme, Lavoisier a encore une fois raison. En effet, les méfaits du
progrès technique se répercute sur nous tout comme l’obscurantisme des anciens
peuples. Il serait plus avantageux parfois de faire remonter le temps que de vivre dans
notre époque. Il y’aurais chaque fois alors une compensation dans la réalité pour que
l’équilibre lui-même soit en parfaite équilibre.
Abdi-Basid ADAN

Principaux Fondements du Sondage


Une quantification, un décompte ou un dénombrement simplifié, bien plus qu’une simple méthode, le sondage est connu comme outils de premier ordre permettant la mise en place d’un échantillon représentatif d’une population statistique (ensemble mère). La finalité première étant d’extrapoler avec une marge d’erreur à minimiser, une information (ou un estimateur) sur l’ensemble de la population.

Les motifs du choix de l’emploi de cette technique sont divers, parmi lesquels, le cout, la durée, les difficultés d’un recensement, le budget, le personnel...etc. Entretenir uns sous partie d’un univers pour globaliser son information considère un certain nombre des critères notamment l’efficacité, la convergence, la consistance (ou robustesse), l’information de Fischer, la précision du l’estimateur obtenu…etc.

En revanche, le plus important de ces exigences sur un estimateurs est la précision (sa convergence). De façon général, la technique de sondage se ramifie en deux sections : d’une part, le sondage empirique (non aléatoire) et d’autre part, le sondage aléatoire. Le coeur du sondage s’attache à la notion de la représentativité, qui a été pour la première fois considéré par George Gallup fondateur de l’American Institute of Public Opinion. De ce fait, la mise en place doit se faire avec plus de précaution et dans la rigueur la plus stricte possible et bien conforme aux principes de sondage.

Les méthodes probabilistes renvoient à l’attribution d’une probabilité à tous le membre de la population et aux échantillons possibles, que l’on nomme probabilité d’inclusion (ou poids du sondage). Parmi ces dernières, on décompte une variété de choix des méthodes selon le coût, la simplicité de la technique d’échantillonnage, la structure, la dispersion des caractères au sein d’une population mère.

En réalité, la méthode la plus simple en technique d’échantillonnage probabiliste, c’est celle de tirage aléatoire simple avec remise et sans remise. Le choix entre ces derniers s’effectue selon la taille de l’échantillon. Généralement, si la taille de celui-ci est grande, la technique avec remise est plus appropriée.

Néanmoins, La précision de l’estimateur s’obtient avec celui non remise. Quand on désire opérer une sélection par stratification en groupe des strates homogènes entre elles (variance intra faible), on se rend compte également que l’estimateur est précis qu’il ne le soit. Améliorer la qualité en réduisant la dispersion, telle est le but visé dans l’échantillonnage. Pour ce faire, on stratifie selon la variable d'intérêt. En effet, dans chaque strate considérée, on maintient le tirage aléatoire des individus avec ou sans remise.

De ce point de vue, l’échantillonnage s’exécute en deux phases. Jusqu’à ici, on a vu que le sans remise est privilégié à celui avec remise dans le cas de petit échantillon ou de taille fini. La stratification est aussi une valeur ajoutée dans la précision de l’estimateur. A la singularité entre ces méthodes, la probabilité de sélection (ou tirage) est identique pour tout individu et bien connu en avance. La procédure du sondage systématique ou celui du tirage de poisson ou de Bernoulli s’annonce un peu différente, la probabilité d’inclusion ou poids du sondage est inégalement répartie dans la population. Elle est sur le plan mathématique, une fonction d’une information auxiliaire. Une variable corrélée avec la variable d’intérêt. L’idéale est de tiré toujours à probabilité avec remise ou sans remise.

Au-delà du sondage simple (élémentaire), pour le cas complexe à savoir celui par grappe et à un ou plusieurs degrés. L’atout consiste essentiellement à réduire le cout et améliorer la précision et donc la qualité de l’estimateur. Ces techniques d’échantillonnage s’emploi dans le cas où la zone de dénombrement, les blocs constitutifs sont homogènes entre eux (variance intergroupe faible). Sa mise en place dépend également du domaine d’étude, de la structure, de la variabilité et surtout de la disponibilité d’une liste exhaustive des individus. A vrai dire, l’échantillonnage élémentaire intervient aussi dans ces processus et constitue ce une de dernière phase d’un sondage à plusieurs degrés.

En ce qui concerne les méthodes empiriques, la méthode de quotas (pseudo aléatoire) est généralement utilisée. La sélection (ou tirage) se fait de telle sorte que l’échantillon puisse avoir la même caractéristique que la population. Ne connaissant pas a priori la probabilité d’inclusion, l’extrapolation ou l’inférence doit être prise avec plus de précaution. La considération de cette méthode réside dans le fait de consacrer un quota pour chaque caractéristique sur lequel se porte l’enquête par sondage. Les autres méthodes empiriques utilisées dans le cas où l’on dispose aucune information sur la population (cas de base de sondage indisponible) sont l’échantillonnages de convenance (ou volontaire) ; Boule de neige ; à priori…etc.

Abdi-Basid ADAN

Modèle Cosmologique de l’Avant Big Bang


Il y’a plus de 13.8 milliards d’années, une super grande déflagration plus puissante jaillissait de nulle part. A la différence d’une détonation, qui ne dépasse pas la vitesse du son, l’explosion qui a eu lieu à l’instant t nul est telle que sa dilatation continue et persistera jusqu’à un temps toujours indéterminé. Est-il un fruit du hasard cosmique ?
Ce qui est inéluctable, la science ne parvient guère avec une certitude absolue de proposer une véritable théorie cosmologique sur l’avant et l’après Big Bang. Bien que le fossé demeure significatif entres les avis des physiciens et astronomes. En Chimie, depuis les premiers travaux, en prêtant connaitre qu’un produit est la résultante d’une réaction de deux ou plusieurs réactifs.
De ce fait, intéressant de plus près de ce phénomène remarquable. La procréation, la fécondation, l’équilibre…etc. presque universellement toute apparition majeure et naturelle n’est que l’apport de deux principes ultra complémentaires. Ce produit (l’univers) n’est pourrait jamais d’être le fruit du hasard, elle est plutôt une explosion unique en son genre.
Mais si nous sollicitons la réalité régie par la science et surtout la mathématique et l’irréalité par le biais de la statistique et de la probabilité. Nous saurons que d’une part et d’autre part l’universalité de certains principes sont communes. Je veux dire que l’origine de l’univers est la combinaison de deux substances parfaites qui se dissoutes sous une nouvelle apparition : l’univers et ses contenus. Il s’agit le secret le plus intime de l’humanité.
Le plus grand centre de recherche des particules du monde, le CERN souhaite comprendre la création de l’univers. Mais atteindre une telle information semble utopique.
En effet, il s’agit des réactifs qui ont permis la formation des tas des galaxies et qui est en plus remarquablement en mouvement grâce à son inertie. L’avant Big Bang est assimilé à la séparation de deux parfaites particules, qui en résulte d’un univers en parfaite équilibre dont les propriétés restent encore à découvrir. Retracer l’histoire de Big Bang c’est connaitre par exemple l’origine de l’âme. Je veux dire par là que l’accès
de ce secret en valeur absolue ne serait jamais possible à moins que la métaphysique y fournir des estimations.
Mais si l’on croit à ces deux parfaites particules, est-il possible d’imaginer donc ce cas que leurs produits puissent donner des particules imparfaites ? L’ultime réponse serait de dire que la combinaison des milliards des particules de nature différentes qui constituent l’univers sont susceptible de se réduire en deux particules parfaites, qui ne sont que les deux clés de la création de l’univers.
Abdi-Basid ADAN

Modèle à Correction à Equations Simultanées : en Cas Standard et Spatial des Données de Panel


Table des Matières
Résumé…………………………………………………………………………………………3
Abstract………………………………………………………………………………………...3
Introduction……………………………………………………………………………………4
I. Modèle à équations simultanées…………………………………………………………….6
II.Modèle à correction d’erreur en une seule étape……………………………………………7
III.Modèle spatiale…………………………………………………………………………….8
IV.Modèle à correction d’erreur à équations simultanées …………………………………….9
V.Modèle à correction d’erreur à équations simultanées spatiales…………………………….9
VI.L’adaptation en panel des modèles à correction d’erreur à équations simultanées standard et spatiale………………………………………………………………………………………9
Conclusion……………………………………………………………………………………10
Bibliographie………………………………………………………………………………….11


Résumé :
À la suite de la déficience d’un modèle performant de premier plan en économétrie, le monde scientifique semble à jamais opposé sur plusieurs théories économies, parmi lesquelles la courbe de Kuznets Environnementale, l’existence des convergences conditionnelles des économie…etc. Cette crise dont souffre le monde scientifique particulièrement dans le domaine de l’économie m’a poussé à réfléchir sur un nouveau modèle économétrique plus complexe contournant plusieurs défaillances des autres modèles : c’est le modèle à équations simultanées à correction d’erreur standard et spatial des données de panel.
Mots Clés : modèle à équations simultanées à correction d’erreur standard et spatial des données de panel, courbe de Kuznets environnementale.

Abstract :
As a result of the deficiency of a leading model of econometric performance, the scientific world seems forever opposed to several theories economies, including the Kuznets Environmental curve, the existence of conditional convergence of the economy ... etc. This crisis of which the scientific world is suffering particularly in the field of the economy pushed me to reflect on a new more complex econometric model bypassing several failures of the other models: it is the model with simultaneous equations with standard error correction and spatial data panel.
Keywords: simultaneous equation model with standard and spatial error correction of panel data, environmental Kuznets curve.


Introduction
Le modèle à équations simultanées est un ensemble des équations interreliées. Leurs usages permettent davantage de tenir compte différents aspects du phénomène que l’on désire étudier. La résolution de ce modèle s’obtient par l’intermédiaire de la technique de la substitution de l’équation simple dans la plus complexe pour en réduire le système en une équation. La réduction de ce dernier s’identifie comme l’étape au quelle une variable endogène n’est représentée qu’à droite de l’équation déduite. Etant donné que la solution consiste à quantifier les inconnus de l‘équation sous la contrainte de l’égalité. L’écriture sous forme matricielle est aussi un choix par excellence, qui sert à aboutir une solution par la technique de la diagonalisation. La nature des solutions du système pouvant être réel ou complexe. Dans le cas réel, la trajectoire de la variable est dite amortie (+) ou explosive (-) selon le signe de(s) la valeur (s) de la solution des paramètres. Dans le cas complexe, on parle plutôt d’une évolution cyclique du phénomène.
Le modèle à correction d’erreur n’est estimable quand les résidus du modèle est stationnaire. Les variables d’une équation étant chacune associées avec une marche d’erreur. La récurrence de cette dernière permet dans le calcul de la limite de la variance de déterminer une divergence dû à la dépendance de la composante temporelle. La notion de la cointégration est une première étape de l’estimation de ce modèle. L’une de condition est de contrôlé le même ordre d’intégration des variables de l’équation. Plus les variables sont intégrées du même ordre I(d) et plus la combinaison est d’ordre à d-b où b étant un réel compris entre 0 à d. Les résidus du modèle de cointégration doivent être aussi stationnaire pour pouvoir estimer un modèle à correction d’erreur.
Les modèles spatiaux qui étudient la proximité, le voisinage ou le zonage géographique se distingue du modèle standard par sa possibilité de tenir compte de la dépendance spatiale. Du point de vue économétrique, elle est déterminée grâce à l’autocorrélation spatiale. L’indicateur de Moran (1948) repose sur l’hypothèse nulle de la loi normale centrée et réduite de l’absence d’autocorrélation. Dans ce modèle, le terme d’erreur est un terme composite, qui spécifie la nature du modèle spatiale. L’hétérogénéité est une preuve d’un problème structurelle dans la zone géographique. Par ailleurs, les variables explicatives décalées consistent à des externalités. La matrice des poids au quelle les éléments diagonaux sont nuls est une matrice carrée et contigus, i.e. prenant la valeur o ou 1 selon l’existence ou l’absence des frontières communes. Concernant les modèles spatiaux, il existe sous des hypothèses prédéfinis une liaison entre les différents types des modèle spatiaux. En effet, le modèle Spatial Durbin est connu pour sa robustesse contrairement aux ses conquérants. Bien qu’il soit super sensible aux valeurs manquantes, les techniques géostatistique permet d’interpoler les valeurs manquantes. La sélection du meilleur modèle se fait en général par trois critères parmi lesquels le critère d’ascendante dite aussi Bottom up (test de multiplicateur de Lagrange), l’approche descendante (top down). Elhorst (2010) propose une approche mixte.


La considération simultanée de la variation temporelle et les observations dans l’analyse économétrique correspond à l’étude de panel.
Cependant, comment tester et estimer un modèle à correction d’erreur à équations simultanées ? Quel changement effectuerons-nous pour déplacer le modèle simple en cas de panel ? Par quel procédé sera-t-il possible pour la mise en évidence d’un modèle à équations simultanées spatiale à correction d’erreur.
L’objet d’étude global est de pouvoir assurer la conjonction de ces modèles en vue de proposer un modèle à correction à équation simultanée en données de panel. Mais de façon plus précise, nous nous intéressons d’abord à aboutir le calcul d’un modèle à équations simultanées à correction d’erreur et de proposer des tests d’identifications. Ensuite nous prétendons analyser dans le cas de panel. S’agissant du cadre spatial, l’étude simultanée du modèle à correction d’erreur à équation simultanées ainsi que les tests de vérifications.


I. Modèle à équations simultanées
Dans le cadre d’un modèle à équations simultanées, on s’intéresse plutôt à vérifier l’égalité entre une variable à un ensemble des variables prises ensemble avec un terme d’erreur. La convergence de la solution est en rapport avec l’évolution de la variable à expliquer par ses exogènes. Plus une variable décrite mieux sa fluctuation par l’intermédiaire de la variance ou les indicateurs de dispersion confondus et plus sa significativité est importante selon le test de Student. Les inconnus du modèle sont les coefficients qui déterminent les parts de contributions sur la trajectoire de la variable endogène réduite. L’équation estimable contrairement à celle dite identité, qui nécessite d’une résolution repose sur le diagnostic de la relation d’égalité entre une variable et un ensemble des variables associées avec un terme d’erreur qui s’obtient par l’estimation des paramètres (inconnus). L’équation comptable est déterminée par une relation exacte et qui ne sollicite point d’une estimation. De ce fait, plus une relation n’est pas exacte et plus elle est estimable et donc pourvue d’un terme d’erreur qui dégrade l’équilibre parfaite de l’équation. La compatibilité des variables d’un système à équations simultanées est une exigence fondamentale pour sa simplification en une équation réduite. Considérons le modèle structurel suivant : {𝑐𝑡=𝑎𝑦𝑡+𝑏+𝜇𝑡 (1)𝑦𝑡=𝑐𝑡+𝑠𝑡 (2)
Où C est la consommation, Y le revenu, S l’épargne, μ le terme d’erreur, a et b sont les coefficients du modèle. Le calcul de sa forme réduite s’obtient soit par la méthode de substitution ou par calcul matricielle. Sollicitons en premier lieu la méthode de substitution : l‘équation (2) dans l’équation (1) donne : 𝑐𝑡=𝑎[𝑐𝑡+𝑠𝑡]+𝑏+𝜇𝑡 (1−𝑎)𝑐𝑡=𝑎𝑠𝑡+𝑏+𝜇𝑡 𝑐𝑡=𝑎𝑠𝑡1−𝑎+𝑏1−𝑎+𝜇𝑡1−𝑎 (3)
L’écriture matricielle du système à équations simultanées est fondée sur l’assimilation des termes des équation du modèle :
{𝑐𝑡−𝑎𝑦𝑡−𝑏=𝜇𝑡 𝑦𝑡−𝑐𝑡−𝑠𝑡=0
(1−𝑎−1 1)(𝑐𝑡𝑦𝑡)+ (−𝑏 00−1)(1𝑠𝑡)=(𝑢𝑡0)
L’inversion de la matrice des coefficients des variables endogènes met en place la forme réduite. Il en nécessite d’un déterminant non nul et par son calcul de cofacteur nous pouvons


établir la forme inverse de la matrice. Le cofacteur tout comme le sous-système, il s’agit de remplacer le coefficient par une matrice réduite de dimension selon la règle de Gauss-pivot
L’inter jonction du modèle à équations simultanées avec le modèle à correction d’erreur est susceptible à partir de cette équation. L’équation réduite (3) est -elle alors co intégrable ?
II. Modèle à correction d’erreur en une seule étape
Le modèle à correction d’erreur est un modèle intégrant des variables en niveau et en différences premiers. Les variables auxquelles le calcul de la limite de leurs espérances, de leurs variances ou de leurs covariances dépendent de la composante temporelle sont dites divergent en d’autres termes non stationnaires. Le calcul des estimateurs d’une équation constituée des variables non stationnaire semble incohérent à la réalité observée. Il est donc important et non négligeable de considérer la notion de l’intégration des variables. Granger a démontré que le fait d’avoir le même ordre d’intégration des variables donne une combinaison de ces variables d’ordre nul. L’idée mis en évidence est la divergence dans l’évolution à court terme et sa convergence sur le long terme. La relation de cointégration est une relation d’équilibre qui s’obtient comme suit.
Soit l’équation : 𝑦𝑡=𝑎𝑥𝑡+𝑏+𝜀𝑡
Les séries sont stationnaires d’ordre 1 : 𝑦𝑡→𝐼(1) 𝑒𝑡 𝑥𝑡→𝐼(1) 𝑦𝑡−𝑎𝑥𝑡−𝑏=𝜀𝑡→𝐼(0) 𝑜𝑢 𝑒𝑛𝑐𝑜𝑟𝑒 𝑦𝑡,𝑥𝑡 →𝐶𝐼(𝑑,𝑑)
Le vecteur (1-a-b) caractérise l’équilibre de long terme.
La validité de la stationnarité des résidus issus du modèle permet ou pas l’estimation d’un modèle à correction d’erreur : 𝑦𝑡−𝑎̂𝑥𝑡−𝑏̂=μ𝑡→𝐼(0)
Un exemple du modèle à correction d’erreur s’annonce comme suit : Δ𝑦𝑡=𝛾Δ𝑥𝑡+𝛿(𝑦𝑡−1−𝑎𝑥𝑡−1−𝑏)+𝜗𝑡𝑎𝑣𝑒𝑐 𝛿 <0
𝛿 doit être significativement négatif pour attester l’existence d’une relation de long terme, le retour vers on était d’équilibre, pour ce faire, la variable endogène retardé est censée être inférieur à la relation de long terme (𝑎𝑥𝑡−1+𝑏). Le modèle à correction d’erreur en une seule étape, constituée à la fois de dynamisme de long terme (variable en niveau) et de long termes ( en différence). On peut décomposer la relation de cointégration en deux sous équations :
L’équation de long terme :
Elle est formée par des variable en différences premières auxquelles s’ajoutent un terme d’erreur. On suppose la relation ci-dessous :
𝑦𝑡=𝑎𝑥𝑡+𝑏+𝜀𝑡 (4)


L’équation de court terme :
𝑦𝑡=𝑎0+𝑎1𝑦𝑡−1+𝑎2𝑥𝑡 +𝑎3𝑥𝑡−1 +𝜗𝑡 (5)
A long terme, le dynamisme de long terme devient le court terme et vice-versa :
𝑦𝑡=𝑦𝑡−1 𝑒𝑡 𝑥𝑡−1 =𝑥𝑡→𝑦𝑡=𝑎0+𝑎1𝑦𝑡+𝑎2𝑥𝑡 +𝑎3𝑥𝑡 +𝜗𝑡 (6)
Le modèle à correction d’erreur s’obtient à partir du dynamisme de court terme :
𝑦𝑡=𝛼0+𝛼1𝑦𝑡−1+𝛼2𝑥𝑡+𝛼3𝑥𝑡+𝜗𝑡
En ajoute de part et d’autre deux termes qui peuvent se simplifier : Δ𝑦𝑡=𝑦𝑡−𝑦𝑡−1=𝛼0+𝛼1𝑦𝑡−1−𝑦𝑡−1+𝛼2𝑥𝑡−𝛼2𝑥𝑡−1+𝛼2𝑥𝑡−1+𝛼3𝑥𝑡+𝜗𝑡
En factorise par coefficient et par variable pour converger vers le modèle à correction d’erreur : Δ𝑦𝑡=𝛾Δ𝑥𝑡+𝛿(𝑦𝑡−1−𝑎𝑥𝑡−1−𝑏)
L’approche de Engle et Granger (1987) ne permet pas d’étudier plusieurs relations de cointégration. Johansen (1988) propose une approche multivarié basé sur le maximum de vraisemblance. Il faut un rang diffèrent de 0 pour qu’il ait une relation de cointégration dans un modèle vectoriel.
III. Modèle spatiale
Le modèle spatial à la différence d’un modèle standard, elle introduit une matrice des poids exogène. La fiabilité de cette approche nécessite le contrôle de l’indicateur de mesure de l’association globale de Moran (1948). L’interaction entre des zones géographiques mesuré par un indice d’ordre 0 et 1. L’autocorrélation spatiale issue d’une organisation particulière d’une zone géographie qui est suspecté d’influencer. Par convention, une région n’est pas contiguë avec elle-même. En revanche, l’intensité de la liaison n’est pas prise en compte par la matrice de poids. On suppose le modèle ci-dessous :
𝑌=𝜌.𝑊𝑌+𝑋.𝛽+𝑊𝑋𝜃+𝜗 (7)
Avec 𝜗=𝛾.𝑊𝜇+𝜀
Dans le cas où 𝛾=0, on obtient le modèle Durbin Spatial


IV. Modèle à correction d’erreur à équations simultanées
Reprenons l’équation réduite du modèle à équations simultanées. Par changement des variables, on pose : 𝑎1−𝑎=𝜌 , 𝑏1−𝑎=𝜃, 𝜇𝑡1−𝑎 =𝜑𝑡
On obtient :
𝑐𝑡=𝜌𝑠𝑡+𝜃+𝜑𝑡 (8)
Pour élaborer aisément un modèle à correction d’erreur à équations simultanées, il faudrait que le résidu de l’équation réduite soit stationnaire autrement-dit é𝑐𝑡−𝜌𝑠𝑡−𝜃=𝜑𝑡→𝐼(0)
La validation de cette procédure permet l’estimation du modèle à équations simultanées à correction d’erreur, qui s’exprime comme suit :
Δ𝑐𝑡=𝛾Δ𝑠𝑡+𝛿(𝑐𝑡−1−𝑎𝑠𝑡−1−𝑏)+𝜗𝑡𝑎𝑣𝑒𝑐 𝛿 <0 (9)
V. Modèle à correction d’erreur à équations simultanées spatiales
L’introduction de la matrice de poids comme « variable exogène » permettra sans équivoque la prise en compte de l’aspect spatiale dans le modèle à correction d’erreur à équation simultanées. Mais elle nécessite avant tout chose de vérification de la significativité de l’autocorrélation spatiale
L’écriture d’un tel modèle s’exprime comme suit :
Δ𝐶=𝛾.𝑊Δ𝑆+𝛿(𝐶′−𝑎𝑆′−𝑏)+𝑣 𝑎𝑣𝑒𝑐 𝛿 <0 (10)
Avec 𝑣=𝛾.𝑊𝜇+𝜀
VI. L’adaptation en panel des modèles à correction d’erreur à équations simultanées standard et spatiale
La considération de la spécificité de chaque pays d’une même zone avec le cadre spatiale et à correction d’erreur en équations simultanées semble moderniser le point de vue de l’économétrie sur les vérifications des théories économiques. Sans doute, une recherche dans ce domaine permettra l’aboutissement de ces modèles et de test de vérifications

Conclusion
La réduction en une équation réduite d’un modèle à équations simultanées exigerait une cointégration afin d’en déduire un modèle à correction d’erreur à équations simultanées. Cette approche va certainement proposer des estimateurs encore mieux efficients pour permettre de trancher sur plusieurs articles contradictoires. De plus l’introduction de la matrice des poids dans un tel modèle ne fera que renforcer ses capacités dans la prise en compte des effets spatiaux. Ici, la correction d’erreur est venue avant l’intégration de la matrice des poids. Bien qu’il soit en cours de développement, une équation spatiale à correction d’erreur ou une équation à correction d’erreur spatiale ne serait pas identique. En outre, la prise en compte des aspects plus complexes dans un modèle performant palliant les défaillances des autres modèles permettra de proposer un consensus dans un monde scientifique perplexe. Le modèle par excellence serait celui à correction d’erreur à équations simultanées spatiale ou standard en panel.
 
 
 Bibliographie :
A Trognon - 2003 - L'économétrie des panels en perspective C Hurlin, V Mignon - 2007 - Une synthèse des tests de cointégration sur données de panel F Maurel – 1989 - Modèles à correction d'erreur: l'apport de la théorie de la co-intégration
JP Urbain - 1990 -Modèles à correction d'erreur et fonctions d'importations agrégées J Le Gallo - 2002 - Econométrie spatiale: l'autocorrélation spatiale dans les modèles de régression linéaire R Brunet - 1980 -La composition des modèles dans l'analyse spatiale



The Abdi-Basid Courses Institute

Les principes de l’économétrie


On entend par économétrie, la faculté de contrôler les théories économiques. Bien que connue comme étant une science économique, elle a pour objet de formuler d’une manière générale des recommandations d’ordre politique économique.
Cette notion a par ailleurs, vu le jour en 1930 avec la création de la société d’économétrie par Fisher et Frisch. Neuf ans plus tard, Tinbergen proposa le premier modèle économétrique. Mais bien en avant, Moore (1908) avait tenté d’associer l’économie à la statistique.
De nos jours, elle occupe une position incontournable dans la politique économique, budgétaire, commerciale…etc. Il ressort par ces concepts que l’économétrie est un ensemble des méthodes fondées sur la modélisation, l’estimation, le test et la formulation des recommandations. En évidence, elle fait appel à la statistique, l’informatique et l’économie. L’approche sollicitée est plutôt la quête des phénomènes explicatives d’un fait que l’on s’intéresse davantage.
Par la nature de la variable, l’économétrie est dite qualitative ou quantitative suivant le phénomène intéressé. L’affirmation des postulats des intuitions des faits économiques passe par l’économétrie avec des procédés d’envergure probabilistes pour affirmer avec plus de chance possible la véracité d’un fait social.
Expliquer un phénomène ou prendre en compte de la réalité d’un fait au cours du temps n’est guère possible, c’est pourquoi, l’on introduit un terme d’erreur. Elle n’est pas si simple que l’on imagine. En effet, il est question d’un regroupement des variables selon une ou plusieurs équations qui reflète l’interdépendance ou la complexité des phénomènes économiques.
En vérité, plusieurs modèles économétriques peuvent être entremêler de telle sorte qu’affirmer une hypothèse de rapport entre des grandeurs est primordialement jugé de premier plan en économétrie. Aujourd’hui cette discipline montre ses failles en raison des pluralités des résultats selon des approches distinctes.
Toutes les techniques souffrent d’une insuffisance qui témoigne de la non-possibilité de l’existence d’une méthode plus cohérente que possible. Dans un dernier article, j’ai mis en évidence avec des propos économétriques, le développement d’un nouveau modèle dont les
2
Page 2
recherches se poursuivent. Il se veut d’être un pionnier en économétrie et atténuer par la même occasion la discordance persistance des opinions scientifiques et publiques depuis des décennies.
Abdi-Basid ADAN

The Abdi-Basid Courses Institute