The Abdi-Basid Courses Institute is a fully virtual platform aiming to unveil the engine of science and make it accessible to all. We offer online courses, live sessions, and multimedia content across fields like statistics, climate science, AI, and more. Our mission is to bridge science and society through inclusive, flexible, and engaging learning for students, professionals, educators, and curious minds worldwide.
2021-01-10
2020-12-03
Spiritualité, Covid-19 et Ancêtre : L’échec de la perception de la réalité en trois dimensions
Spiritualité, Covid-19 et Ancêtre : L’échec de la perception de la réalité en trois dimensions
Par les sens, en nombre de cinq, avec lesquelles la réalité se dessine et prend forme, mettent en commun les vrais concepts de base qui définissent intuitivement c’est que véritablement la réalité. Certains essors, pourtant de pures réalités, les deviennent concrètement, une fois que nous eussions approuver un sens logique subjectivement à son égard. Certains incidents dépassant le cadre de la réalité que l’on s’imagine, y demeurent par le fait qu’elles soient tout simplement impossibles dans l’irréalité complexe. Alors, qu’est-ce que la réalité ? En quoi ses trois dimensions apportera -t-il des nouveaux pour clarifier ses ambigüités ? C’est l’objet principal de ce present travail, qui se contentera de servir un support essentiel pour démêler les trois dimensions en possession de la réalité.
La première forme de la réalité précède, en effet, les différents états de la nature et sur la même lignée d’ordre que l’état de connaissance sur l’origine de l’univers, la maitrise de la spiritualité dépasse le cadre de la matière physique. Des observations expérimentales en concordance avec la métaphysique nous ont permis d’identifier la spiritualité sous plusieurs critères dont quelques-unes parmi tant d’autres à savoir l’immortalité ; l’inexistence en genre ; le non engendrement ; les capacités surnaturelles ; l’indépendance vis-à-vis du temps et des énergies sous forme des nutriments ; le non vieillissement ; le non endormissement…etc. Nos énergies spirituelles membres de la famille des êtres non matériels exercent comme fonction principal, l’interconnexion des organes vitaux pour le maintien de l’individu à la vie. C’est d’ailleurs la séparation d’une telle paire, âme-corps, qui en devient l’origine effective de la mort. Telle est la promesse de chaque naissance, qui atteint son terme généralement par un disfonctionnement d’un de ses organes vitaux, pour faire valoir un prétexte de séparation de l’union âme-corps. Il n’est pas, sans doute, un privilège de la science d’étudier la phase de pénétration de cette énergie intracellulaire dans le corps. C’est une réalité que la logique ne se montre cependant pas habile à rattraper pour en élucider.
De part cette première dimension de la réalité, le monde de microorganisme est aussi une autre vision de la réalité. Ces espèces vivantes, ayant le même caractère sur le plan de la spiritualité que nous, illustre presque pareillement tous nos principes mais dans une dimension bien différente. Le célèbre Covid-19 et d’autre éléments pathogènes et mortels réalisent les mêmes accomplissements que celui d’un neutron bouleversant un noyau d’uranium, quand il s’agit de pénétrer un corps sain qui unis un être immatériel et un corps. Cet élément échange avec nos cellules d’un organe particulier par le biais d’un programme génétique qu’il dispose. Bien que certains virus soient récents, la similitude en information génétique laisse montrer les failles et l’obsolescences de nos informations génétiques face au potentiel de ces virus.
En vérité, la communauté scientifique attache la ligné humaine à l’homme habilis et antérieurement à une espèce de variété de singe, qui me semble de mauvais foie, pourrait se montrer significative dans le cadre d’une étude de classification des protéines des molécules d’acide désoxyribose nucléique des différentes espèces, que de se limiter sur le nombre de chromosomes et la ressemblance morphologique des espèces pour en tirer une information relative, hâtive dont les conclusions sont extrêmement déformées et à prendre du recul.
La dimension secondaire de la réalité est le monde vivant et ses lois des créatures de microorganismes. Or il est de connaissance que le programme génétique des virus accommode ceux de nos cellules. Alors convient-il de dire que les programmes ARN détourne en s’infiltrant dans celui de l’ADN ? Le déséquilibre de force qui en résulte nous ramène à intervenir pour neutraliser et transmettre des informations à nos cellules sur ses éléments pathogènes. La raison pour laquelle l’appellation de vaccination s’en est popularisé au détriment de nous surpasser de cette faiblesse de la lignée humaine.
En principe, nous sommes arrivés à communiquer avec des cellules naturelles sur un language matériel pour contenir les potentiels des virus. Il se doit sans équivoque à l’innovation des mesures pour parvenir à protéger ce monde de microorganisme qui constitue l’essence de nos bien-être et la base de notre existence, puisque c’est l’aspect visible qui nous définit dans la réalité intuitive avant tout. Il ne peut se matérialiser en effet, par le déchiffrement de l’ensemble des protéines de la molécule d’ARN du virus, de le transformer en une matrice de big data. Ce réarrangement permettra de réaliser des combinaisons de substitutions, des sélections des sous programmes pour des manipulations plus complexes. Or par cette initiative, il nous sera possible de tracer en avance tous les potentiels que disposent un virus bien avant sa mise en action. En classifiant tous ses capacités, des multiples solutions de neutralisations ou d’autodestructions peuvent en découler. Car, en effet, ces informations sont ultimes pour contrôler en si peu de temps un virus dont ses effets néfastes restent à découvrir. Les étapes des virologues me semblent entrepris à l’envers. C’est pourquoi cela demande des années pour en éradiquer.
La troisième dimension de la réalité prend forme avec nos cinq sens de la vue à l’odorat, en passant par l’ouïe ; la touche et le gout. Effectivement, la réalité non imaginaire de la spiritualité, puis son essoufflement dans un organisme ou microorganisme et enfin la relation entre microorganisme et organisme pour en exposer rien que deux dimensions de la réalité. La dernière nous est familier, mais elle est déterminée par ses valeurs, que j’appelle ici « ancêtre ou nos ancêtre ». L’origine d’un individu tout comme l’aliénation à l’égard de l’expérience de nos passés nous est d’une extrême utilité. Cet épicentre peu importe de quelle histoire elle dérive, sert d’un pilier pour le développement personnel, qui contribue à la civilisation. Par vérité, l’histoire a ses versions, que ces versions ont leurs intérêts spécifiques. Si la civilisation africaine à su dominer le monde malgré les mésopotamiens et les grecques, c’est grâce par une culture bien bâtis et en trahir celle-ci revenait à se ruiner, cela se montre avec la victoire des romains. Suite aux observations pluriannuelles des réussites scolaires dans les établissements africains, les meilleures d’entre eux sont ceux attachés à leurs cultures. C’est parce qu’ils sont arrivés à comprendre qu’il faut concilier la culture et la civilisation étrangère. Si l’on regarde la Chine, la Turquie, le Cuba, l’Iran…etc., ces pays en témoignent sur la véracité incontournable de la culture dans le développement. L’agence francophonie et les valeurs occidentales ne brillent que pour atteindre à la confiance que l’on accorde à sa propre culture, mais aussi à intimider les valeurs ancestrales et locales d’un peuple. Une façon d’inventer des cultures parasitaires autour d’une culture qui elle-même dérive de la source originaire du rift de l’Afrique de l’Est où l’humanité prend naissance.
Abdi-Basid ADAN
2019-06-20
Perspectives Inédites sur la Conscience
Perspectives Inédites sur
la Conscience
La conscience est définie communément comme cette
propriété que les êtres vivants se vantent pour faire valoir leurs existences, d’être
animer, de pouvoir participer, agir et jouer un rôle, qui à leurs yeux semblent
essentiels dans la vie. Une caractéristique parmi tant d’autre, se tenant au
premier plan et qui consiste à lamise en connaissance immédiate de l’état de
circonstance. En termes classiques, c’est agir et en même temps savoir que l'onagit.
Par opposition à l'inconscience, qui lui se manifeste dans des situations de
comportements irréfléchis ou par des accomplissements automatiques. Freud, le
dit clairement, "le moi n’est pas le maitre dans sa propre maison". Excepté
ce dernier, « le ça », prend relai également et s’identifie comme le réservoir
pulsionnel et le surmoi, comme l’instance des interdictions et idéaux. Le sujet n’est plus une entité soudée, mais une
réalité auto conflictuelle.
Dans ce présent article, ayant pour vocation première
une contribution sur la notion de la conscience et ses dérivés (la préconscience,
l’inconscience) connu jusqu’à nos jours. Avec ce nouvel horizon, qui s’annonce
plus que jamais élargir les percepts de la conscience avec des perspectives
prêts à être exploiter, il s’agit entre autres l’hyperconscience et
l’hypoconscience.
Tout comme Christoph Colombe à la quête de
l’Amérique, la conscience est certes interprétée, indirectement quand l'âme est
à la conquête du système psychisme. Une jouissance sur des multiples capacités
à sa disposition. Mais, il semble au préalable et sur la même longueur d'onde de
l'imperfection observée dans la vie présente, ramène sans épargner la
conscience à définir ses défauts et limites, constituant ainsi l'objet
fondamental de l'inconscience.
A l’instar de ces articulations, il ressort farouchement
que la conscience devient la coordination entre le système psychisme et le
souffle vital (âme), la conservant ainsi en action continuelle à travers les
charges électrifiées des neurones. Il est impératif de mettre hors de l’ombre
et loin de la confusion, un sujet emblématique, celui concernant les espèces de
même famille intangible. En ce termes, l’âme n'est pas assimilé à un esprit. En
outre, ce dernier se ramifie en plusieurs sous espèces dont certains semble
plus hostile à l’homme. Par leur caractère mal veillant, un esprit démoniaque
peut se permettre de remplacer l'âme dans la colonisation du psychisme à des degrés
différents. Il n’est pas ahurissant de voir une forme de fidélité d'entende
entre l'âme et l'esprit dans cette vie. Or, il se trouve que l'âme n'agit pas
seule dans sa prise de décision, dans ses actions.
L'hyperconscience consiste l'action propre de l'âme
quand celui-ci ne soit pas biaisée par toute forme d’influence extérieure spirituelle
directe ou indirecte. Par opposition, à l'hypoconscience, l'âme se voit contraint de céder pour un ou plusieurs
esprits, la gestion du psychisme autrement dit la conscience se met au service
d’un autre acteur spirituel. Par-là, il y’a lieu de comprendre que le corps
aussi mystique qu’il en soit, ne devientqu’une simple identité visuelle pour ces
êtres invisibles.
D’autant plus que des moments de l'hyperconscience
soient presque similaires à l’état de la conscience. La différence avec le
surmoi étant l'auto jugement de façon neutre sur ses propres actes accomplis. Une
forme de regret ressentit à l’égard d’une action accomplie pour un motif de
recherche soi-disant « état d’après désobéissance ».Contrairement à
se que Sartre le dit dans l’Être et le Néant, « autrui est, par
principe, celui qui me regarde et par le regard duquel je prends
conscience de ce que je suis ». Ici, par contraste, ce n’est nullement un
autrui qui fige sa propre liberté d’action mais son soi-même divulgue à quel degré
de prosaïsme s’est-il permis d’exercer.
Autre par amplification de la notion de la
conscience, il est de l’ordre du jour de la mise en clarté pour une
spécification entre la conscience humaine, outre que l’animal, celle
spirituelle. En ce terme, l’âme, une fois dans le corps, sa conscience est
immédiate et n’est pas pourvue de mémoire. C’est -à-dire elle n’a nullement
besoin de l’expérience. Car en effet, un bébé avec son environnement externe et
montre surtout qu’il est dominant. Comment se fait-il sans qu’une expérience ne
lui soit transmis ? C’est par la conscience spirituelle que cette remise
en cause s’explique davantage. A défaut du décès d’une personne la conscience
humaine s’arrête, mais celle spirituelle continue toujours.
Allons encore plus loin, du même avis que Einstein,
lui qui avoir affirmé que la science sans religion est boiteuse et que la
religion sans science est aveugle. Dans cette perspective, l’islam confirme la
moindre connaissance qui nous est partagée sur l’âme et qu’il est parmi les
anges l’être qui se voit le plus attribué de valeur. Nous nous rendons compte
que l’homme se voit supérioriser dans plusieurs contextes. Exemple de
manifestation : le cas de l’antisémitisme,du racisme, de l’ethnisme, y
compris la vanterie.
Abdi-Basid ADAN
Phematician
2018-10-01
Intégration et Cointégration des Variables (ICV)
Résumé
Dans
ce présent rapport, nous exposons un aperçu général sur les notions de
stationnarité (intégration) et de cointégration des variables. Bien qu’elles
occupent une place importante en statistique et en économétrie, leurs concepts
ont, pour beaucoup de chercheurs, été un peu flous. Je me permets d’en étayer
davantage en proposant que l’essentiel du point de vue théorique et empirique
sur l’intégration et la cointégration des variables.
Keys Words: ARDL, Box-Jenkins, Engle & Granger (1987),
Johansen (1988)
Introduction
Une
variable temporelle, un processus de courte ou de longue mémoire nécessite
avant d’être analyser, une étude permettant de soulever les grandes
caractéristiques d’une grandeur sur le plan statistique. Il s’agit entre autres,
sa tendance ; sa saisonnalité ; sa stationnarité, sa loi de
probabilité ou sa densité, …etc. L’une
de volet très intéressant et qui dans la plupart des cas se présente est la
question de la stationnarité de la chronique. Plusieurs procédés sont à notre
disposition pour sa mise en œuvre. En outre, l’intérêt de cointégrées les
variables dans le cas d’une combinaison linéaire est devenu viral dans les
études économétriques. De peur de présenter un modèle illusoire avec des
coefficients hors normes, la littérature se dépêche de proposer un tas d’outils
pour venir contourner cet obstacle majeur en économétrique. Dans les sections
suivantes, nous présentons la stationnarité de la variable de manière plus
concise et discutons par la suite la notion de cointégration.
I.
Intégration des
Variables (IV)
Une
des notions fondamentales en statistique et en économétrie est effectivement
celle liée à l’intégration des variables. Qu’est-ce que, véritablement
l’intégration des variables ? Il se
trouve qu’en statistique, l’idée de non-stationnarité est plutôt couramment
utilisée par rapport à celle d’intégration des variables. Or, la signification
de cette dernière est polyvalente d’une discipline à l’autre. En statistique, un processus temporel
fluctuant indépendamment du temps est dit stationnaire. Par illustration
(chronogramme et corrélogramme), on peut assister une concentration de la
chronique autour de sa valeur moyenne (espérance mathématique) ou une
décroissance rapide de la fonction d’autocorrélation. En termes de probabilité,
la distribution jointe (loi ou densité) est identique pour les k et les k+1
premières variables. En ce sens, le processus est stationnaire au sens stricte
(dit aussi de premier ordre ou fort). Pour en dire plus, quel que soit l’instant
t considéré, la variation de la chronique en t et t+1 est n’est pas influencé
par le référentiel temporel. De ce point de vue, ses propriétés, connue aussi
sous la désignation « conditions de stationnarité » à savoir la
moyenne, la variance et la covariance sont tous convergentes et indépendantes
du temps. Vue de la complexité que relève l’estimation d’une la loi de nature
probabiliste pour une distribution donnée, il a été proposé pour remédier à
cela, un second sens de stationnarité dite stationnarité au second ordre (sens
faible ou à covariance). Seules les conditions de l’espérance et la variance de
la variable sont requises et indispensables pour pouvoir juger et affirmer sur
la stationnarité à l’encontre d’une variable. Sachant la troisième condition
inclut également à la seconde lorsque k est nul (cov(xt,xt-k)).
Celle-ci assure un rôle pionnier notamment dans la prévision d’une série
temporelle. En principe, l’intervalle de confiance des valeurs estimés en
dépend pour sa validité. Il est mentionné
dans la littérature l’existence d’une multitude forme de non-stationnarité
d’une suite temporelle parmi lesquelles la stationnarité avec tendance
(TS : Trend Stationnarity, Nelson et Plosser ( 1982)), qui graphiquement,
on assiste à une évolution croissance de la série au cours du temps : de
ce fait, les conditions de stationnarités ne sont pas remplies. Pour contourner
cette adversité et obtenir par la suite la série dépourvue de composante
tendancielle, nous avons aux choix une de trois techniques notamment par droite
de moindres carrés ordinaires, moyen mobile simple ou encore par le filtre
Hodrick-Prescott. On obtient par-là, un bruit blanc Hamilton (1994), par
définition stationnaire mais de second ordre. Dans le vocabulaire statistique,
on évoque aussi le bruit blanc indépendant, du fait de l’indépendance entre les
variables, qui implique la nullité de la valeur de la covariance ou simplement
la décorrélation entre les variables (la réciproque étant déjà fausse). Parfois
de nature gaussien, il est, à la fois indépendant et suit une loi normale. Dans
ces conditions, le bruit blanc est strictement stationnaire (ou stationnaire au
sens strict). A la différence, un processus stochastique n’est pas forcement
stationnaire. La deuxième forme de
stationnarité, quant à elle est de type stationnarité par
différence (DS : Difference Stationnnarity, Nelson et Plosser (
1982)). Elle est dû, en particulier, à l’influence de la série par ses propres
valeurs historiques. En évidence, la différenciée selon un ordre bien diffèrent
de zéro permet de stationnariser la série.
Dans la pratique, deux familles de test de stationnarité s’annoncent.
C’est en effet, d’une part le test ayant comme hypothèse nulle de stationnarité
(Test KPSS) et d’autre part, les tests ayant comme hypothèse nulle de
non-stationnarité (Test de Dickey-Fuller ou Phillips-Perron). Encore plus, une
variable peut être stationnaire avec constante et tendance ; ni l’un et ni
l’autre ou avec constante seulement, selon les significativités de ces paramètres.
La nuance qu’il semble adéquat de préciser est celle de se dire comment une
série peut être stationnaire avec tendance, alors que c’est la composante
tendancielle qu’il faut la dénuée. Assez logique, en réalité, ça voudrait dire
la même chose et non vue comme deux proposition différentes ou contradictoires.
En un mot, l’intégration de variable consiste à priver de la série
chronologique de toute perturbation tendancielle ou historique pour pouvoir
identifier la série stable afin de s’en servir dans des analyses variées.
Enfin, c’est avec l’aval de cette étape primordiale et impérieuse que l’on peut
se permettre d’entamer l’estimation des modèles suivants précisément modèles de
Box-Jenkins (ARIMA, SARIMA, VAR, ARMAX,…etc) ou encore Engle (ARCH, GARCH, …etc).
II.
Cointégration des
Variables (CV)
La cointégration est indispensable
dans l’analyse bidimensionnelle aussi bien en statistique qu’en économétrie.
Nous sommes conscients de l’erreur imminent que peut nous conduire la prise en
compte simultanée de deux ou plusieurs variables sans avoir eu recours au
préalable une étude par variable. En quelque sorte, « mieux d’abord
évaluer chaque variable avant de la considérée serviable ». Introduite en
économie par Engle et Newbold (1974), puis développé par Granger et Engle
(1987) et poursuivie en 1991 par Johansen, la notion de cointégration est en
effet, l’intégration de la combinaison linéaire entre deux variables prise
ensemble auxquels des tests dans la littérature nous permet d’affirmer en cas
de présence de vecteur de cointégration. Il s’agit à savoir le tests Engle et
Granger (1987) ; Johansen
(1988) ; Johansen et
Juselius (1990), …etc. Il est si fréquent de se retrouver avec le problème
de régression fallacieuse dans la
modélisation des variables, en raison d’une régression linéaire sur
des variables non-stationnaires, qui témoigne en principe, un pouvoir
explicative R² et un t de Student très appréciables alors qu’en réalité, il
n’existe aucun relation entre elles . Dans cette optique, la distribution des
paramètres estimés ne suit plus une loi
de Student mais un
processus de Wiener (mouvement brownien), qui survient
quand la variance au moins de l’une des variables diverge, du fait de sa
dépendance au dimension temporelle et bien identifiable avec procédure de
récurrence. En effet, des bonnes perspectives de l’analyse résiduelle
accompagne pour la validité finale du modèle. Lorsque le résidu n’est pas
stationnaire, elle est assimilée au cas de présence d’autocorrélation entre les
résidus du modèle. L’ordre d’intégration du modèle résiduelle n’est pas
forcement au deçà de ceux des variables du modèle. En évidence, une composante
résiduelle du modèle stationnaire à un ordre diffèrent de 0 est considérée
comme un modèle où l’autocorrélation des résidus est imminente. Autrement-dit
l’autocorrélation et la stationnarité s’implique indirectement au travers de la
dernière condition de la covariance (au sens faible de stationnarité). Le but de la cointégration est de pouvoir
déterminer un résidu stationnaire tout en travaillant sur deux variables non
stationnaires en niveau. L’idée proposé par Engle va dans la sens qu’à court
terme les variables divergent, mais existe à long terme une stabilité, un
équilibre entre elles. Une évolution commune des variables. Or connaissant la
possibilité d’une cointégration d’ordre non nul, à long terme la perspective
souhaitée existe selon des conditions bien définis en amont et en aval. Parmi
lesquelles le même ordre d’intégration des variables, vérification de la possibilité
de cointégré les variables, autrement dit un ordre inférieur ou égal à l’ordre
commune d’intégration des variables. Outre, en aval, un signe négatif et
significatif du coefficient de force de rappel à l’équilibre (ou vitesse
d’ajustement) est requis tout en vérifiant la stationnarité de résidus obtenus.
Le théorème de Granger (1983) met en évidence la relation de cointégration et
du modèle à correction d’erreur. L’estimation de relation de court terme avec
MCO n’est possible que quand on différencie les variables. En d’autres termes,
en intégrant dans le modèle, les variables retardées comme explicatives. En
revanche la relation de long terme sont estimées en niveau par MCO. Aucune
méthode n’est parfaite, en ce sens, l’inconvénient de l’approche Engle-Granger
(1987) est la non-distinction de relation de cointégration. En principe, elle
ne présente qu’une seule relation de cointégration, alors qu’elle est de nombre
k-1 relation avec k le nombre des variables. Johansen (1988) apporte une
solution à cette problématique avec son approche multivariée de maximum de
vraisemblance. Pour la validité du
modèle VECM, il faut un rang de cointégration inférieur au nombre de variable
et non nul, qui est mise en évidence par la maximisation du log de vraisemblance.
Dns le cas contraire, un modèle VAR(p) est estimé à la place d’un VECM. D’autre
part comme dans le modèle Vectorielle autorégressif, la spécification du modèle
selon l’absence ou la présence d’un constant et tendance est nécessaire. On
peut les déterminés avec leurs significativités une fois estimé. La méthode à une seule étape de BANERJEE et
al. ou MCE à la Handry permet de faciliter l’interprétation de la relation de
long terme. En outre, pour estimer les relations à long terme dans le cas sur
petits échantillons, le modèle à deux étapes pourrait conduire à de biais
d’estimation selon Banerjee, Dolado, Hendry et Smith (1986). La modélisation ARDL « AutoRegressive
Distributed Lag/ARDL » et
le test de cointégration aux bornes de Pesaran et al. (2001) ont une approche
de nouvelle venue pour pallier le cas de cointégration des variables à des
différents ordres de stationnarités. En revanche, quand l’ordre d’intégration
de variable est supérieur à 1, l’application du modèle ARDL pose un problème.
Conclusion
La
stationnarité est plus que jamais une condition d’étude préalable sur les
variables avant leurs introduisons dans des études plus considérables. Il
s’agit de dénuer du processus temporel des perturbations tendancielle et
historiques avec des procédures appropriées pour pouvoir mener des analyses
statistiques et économétriques. De même, la cointégration s’avère encore plus
complexe, du fait que l’on désire s’intéresser à travailler sur des variables
en niveau, tout en évitant que la régression ne soit fallacieuse. Plusieurs
approches se pressent, l’une plus performant que l’autre. Dans les deux cas,
ces notions ne peuvent être prise avec négligence, car une production
scientifique fondé sur le processus temporel en dépend inévitablement.
Bibliographie :
1. Atoumane Diagne (2015) :
Modélisation économétrique de la consommation d’électricité au Sénégal de 1999
à 2015
2. Hélène Hamisultane: Modèle à correction d'erreur et
applications
3. Jonas Kibala Kuma (2018) :
Modélisation ARDL, Test de cointégration aux bornes et Approche de
Toda-Yamamoto : éléments de théorie et pratiques sur logiciels
4. Lonzo Lubu Gastonfils (2015) :
Application De La Methode De Prevision De Box-Jenkins
2018-09-13
Une substance stupéfiante : La chance
La vie sur Terre ne semble pas tenir sur la même droite que celle fut dans le paradis à Adam et Êve. Sans doute, elle est assimilée à une lutte vulgaire pour la survie non seulement pour l’Homme y compris les animaux. C’est plutôt un terrain auquel toutes les espèces sont invitées à développer un savoir-faire au profit de leurs pérennités. Certaines fois, on a l’impression de voir que la vie pour les animaux semble mieux aisée qu’elle ne l’est pour l’Homme.
Du fait du haut de sa conscience, l’être humain est plus que jamais contraint à travailler. Un dur labeur pour subvenir à ses besoins et à celle de sa communauté. Alors, les efforts proprement-dites sont-ils en rapport avec la chance ? Ou encore la Réussite est-elle la combinaison d’un ensemble d’efforts et de chances ? pour y parvenir à consentir des principes suffisamment convaincants, imaginons que nous soyons amenés à progresser pour une sélection finale, une ultime étape.
Il faut que l’on sache que les courages et les peines accumulés n’ont souvent pas tendances à s’égaler aux valeurs escomptées. La situation finale n’est pas plutôt en volteface mais peut se faire valoir être en faveur du consentement d’un individu soit au pire des cas, le contraire.
Comment expliquer un tel phénomène pareil dans la vie courante ? Sans doute, plusieurs d’entre vous, solliciteront le rôle de la chance. Dans cette condition, la chance assume-elle sa part de responsabilité dans l’évolution de chaque épreuve ? Est-elle injuste pour certain qu’elle ne l’est pour d’autre ? une première de chose que nous pouvons légitiment envisager et qui saurait un point commun entre les différents lecteurs : c’est celle de concevoir d’abord l’essence de la chance. Elle est définie comme étant un aléa, un hasard, une vraisemblance. Mais quantifiable et qui est mesurée par une probabilité, le nombre de chance qu’un évènement puisse avoir lieu.
Revenons-y sur l’expérience de la qualification finale pour entrevoir la cohérence. Imaginer que vous faites partie alors de ces finalistes. Vous êtes amené à faire un choix entre quatre lettres ‘A’, ‘B’, ‘C’ et ‘D’. Comme l’expression chance commence par la lettre ‘C’, nous allons prétendre dire que ‘C’ est la bonne option
parmi les autres. Autrement-dit chaque individu des finalistes auront chacun 25
chances sur 100 de célébrer leur moment de gloire.
Malgré vos efforts et la détermination que vous vous êtes engagés pour venir à
la hauteur de vous-même, encore soit-il que le résultat attendu ne saurait guère une
suite directe de vos engagements. Pour ainsi dire que la chance n’est pas observable
mais estimable. Elle est identique pour chaque individu et par conséquent neutre. C’est
plutôt notre libre arbitre qui en détermine la cause première de nos choix, des
conséquences de nos travails et des décisions prisent continuellement dans nos vies.
Cependant, comment allons-nous expliciter la notion absurde qui se rattache à
une situation favorable que pourrait avantager une personne physique ou morale ou
encore un Etat. Il s’agit clairement une longueur d’onde d’avance pour l’individu
possesseur que celui qui en est privé. La chance est-elle dans ce cas un privilège ?
autrement-dit le privilège est-il lui-même une chance ? A juste titre d’exemple, on se
rend compte que les avantages comparatifs entre les pays sont bien complémentaires
sur le plan économique. Il convient de dire qu’il est plutôt bénéfique pour tous, c’està-
dire une externalité positive multilatérale.
Abdi-Basid ADAN
Une information pertinente, prouesses de Data Science, Big Data et de l’Intelligence Artificielle
La révolution américaine a sans équivoque permis à certain nombre
d’américains de maitriser le globe terrestre. Au point même qu’ils sont capables de
retracer l’activité d’une personne donnée ou de prédire ses propres intentions. Une
information pertinente à la place des milliards de dollars de dépenses, qui seront
éventuellement susceptible de partir en fumées.
Elle est aussi efficacement au détriment des efforts colossales voués presque
à l’insignifiant. Il s’agit d’une information au bon moment ! et au bon contexte ! Le « trou
noir » de la toile des principaux réseaux à savoir YouTube, Facebook, Google sont les
personnes non voyantes.
En vérité, ils ne peuvent s’en servir de cette technologie ni par leurs ouïes, leurs
odorats, ou par leurs sens, il faut la vue pour être connecter et laisser ses empruntes
artificielles dans la toile. Ces populations sont à l’abris des méfaits de la civilisation
américaine.
Le Data science ou manipulateur des données massives, collectées illicitement
sur des milliards d’individus à travers le monde constitue ce qu’on appelle le Big Data.
C’est un véritable trésor pour enfin se permettre de tout connaitre. La maitrise totale
de chose. Rien, en quelque sorte ne doit échapper à un certain décideur, du haut de
la pyramide mondiale.
Le progrès technique, bien connu par ses effets positifs incommensurables, son
cercle vicieux engloutie sans indifférence presque tous ce qu’il trouve sur son passage.
Nous l’avions vu à la suite de l’avertissement de Einstein au président Roosevelt sur
le projet nucléaire du régime de Hitler, qui a finalement été la conséquence de l’horreur
et de la fureur de Roosevelt au Japan.
L’intelligence artificielle ou machine non pensante mais simulatrice de
l’intelligence humaine nous doit pas nous laisser insurger mais soyons plus sceptique
toujours. On se tremperais davantage de dire que les peuples précédents n’ont pas
eu la chance de découvrir le bien faits de notre époque.
Etant donné que le monde soit fermé et que rien ne se perd, rien ne se crée,
mais tous se transforme, Lavoisier a encore une fois raison. En effet, les méfaits du
progrès technique se répercute sur nous tout comme l’obscurantisme des anciens
peuples. Il serait plus avantageux parfois de faire remonter le temps que de vivre dans
notre époque. Il y’aurais chaque fois alors une compensation dans la réalité pour que
l’équilibre lui-même soit en parfaite équilibre.
Abdi-Basid ADAN
Principaux Fondements du Sondage
Une quantification, un décompte ou un dénombrement simplifié, bien plus qu’une simple méthode, le sondage est connu comme outils de premier ordre permettant la mise en place d’un échantillon représentatif d’une population statistique (ensemble mère). La finalité première étant d’extrapoler avec une marge d’erreur à minimiser, une information (ou un estimateur) sur l’ensemble de la population.
Les motifs du choix de l’emploi de cette technique sont divers, parmi lesquels, le cout, la durée, les difficultés d’un recensement, le budget, le personnel...etc. Entretenir uns sous partie d’un univers pour globaliser son information considère un certain nombre des critères notamment l’efficacité, la convergence, la consistance (ou robustesse), l’information de Fischer, la précision du l’estimateur obtenu…etc.
En revanche, le plus important de ces exigences sur un estimateurs est la précision (sa convergence). De façon général, la technique de sondage se ramifie en deux sections : d’une part, le sondage empirique (non aléatoire) et d’autre part, le sondage aléatoire. Le coeur du sondage s’attache à la notion de la représentativité, qui a été pour la première fois considéré par George Gallup fondateur de l’American Institute of Public Opinion. De ce fait, la mise en place doit se faire avec plus de précaution et dans la rigueur la plus stricte possible et bien conforme aux principes de sondage.
Les méthodes probabilistes renvoient à l’attribution d’une probabilité à tous le membre de la population et aux échantillons possibles, que l’on nomme probabilité d’inclusion (ou poids du sondage). Parmi ces dernières, on décompte une variété de choix des méthodes selon le coût, la simplicité de la technique d’échantillonnage, la structure, la dispersion des caractères au sein d’une population mère.
En réalité, la méthode la plus simple en technique d’échantillonnage probabiliste, c’est celle de tirage aléatoire simple avec remise et sans remise. Le choix entre ces derniers s’effectue selon la taille de l’échantillon. Généralement, si la taille de celui-ci est grande, la technique avec remise est plus appropriée.
Néanmoins, La précision de l’estimateur s’obtient avec celui non remise. Quand on désire opérer une sélection par stratification en groupe des strates homogènes entre elles (variance intra faible), on se rend compte également que l’estimateur est précis qu’il ne le soit. Améliorer la qualité en réduisant la dispersion, telle est le but visé dans l’échantillonnage. Pour ce faire, on stratifie selon la variable d'intérêt. En effet, dans chaque strate considérée, on maintient le tirage aléatoire des individus avec ou sans remise.
De ce point de vue, l’échantillonnage s’exécute en deux phases. Jusqu’à ici, on a vu que le sans remise est privilégié à celui avec remise dans le cas de petit échantillon ou de taille fini. La stratification est aussi une valeur ajoutée dans la précision de l’estimateur. A la singularité entre ces méthodes, la probabilité de sélection (ou tirage) est identique pour tout individu et bien connu en avance. La procédure du sondage systématique ou celui du tirage de poisson ou de Bernoulli s’annonce un peu différente, la probabilité d’inclusion ou poids du sondage est inégalement répartie dans la population. Elle est sur le plan mathématique, une fonction d’une information auxiliaire. Une variable corrélée avec la variable d’intérêt. L’idéale est de tiré toujours à probabilité avec remise ou sans remise.
Au-delà du sondage simple (élémentaire), pour le cas complexe à savoir celui par grappe et à un ou plusieurs degrés. L’atout consiste essentiellement à réduire le cout et améliorer la précision et donc la qualité de l’estimateur. Ces techniques d’échantillonnage s’emploi dans le cas où la zone de dénombrement, les blocs constitutifs sont homogènes entre eux (variance intergroupe faible). Sa mise en place dépend également du domaine d’étude, de la structure, de la variabilité et surtout de la disponibilité d’une liste exhaustive des individus. A vrai dire, l’échantillonnage élémentaire intervient aussi dans ces processus et constitue ce une de dernière phase d’un sondage à plusieurs degrés.
En ce qui concerne les méthodes empiriques, la méthode de quotas (pseudo aléatoire) est généralement utilisée. La sélection (ou tirage) se fait de telle sorte que l’échantillon puisse avoir la même caractéristique que la population. Ne connaissant pas a priori la probabilité d’inclusion, l’extrapolation ou l’inférence doit être prise avec plus de précaution. La considération de cette méthode réside dans le fait de consacrer un quota pour chaque caractéristique sur lequel se porte l’enquête par sondage. Les autres méthodes empiriques utilisées dans le cas où l’on dispose aucune information sur la population (cas de base de sondage indisponible) sont l’échantillonnages de convenance (ou volontaire) ; Boule de neige ; à priori…etc.
Abdi-Basid ADAN
Inscription à :
Commentaires (Atom)
The Abdi-Basid Courses Institute (tABCi)
-
Calculs d'ABJAD et JAFR Abjad est une science basé sur les valeurs numérologique des lettres arabes à travers le saint coran,...
-
Résumé Dans ce présent rapport, nous exposons un aperçu général sur les notions de stationnarité (intégration) et de cointégration des...
-
La vie sur Terre ne semble pas tenir sur la même droite que celle fut dans le paradis à Adam et Êve. Sans doute, elle est assimilée à une ...
