La réussite de la rénovation industrielle


Debout à la ligne de départ d’une nouvelle tâche, le chemin qui se trouve devant vous peut sembler être un peu comme une mission extrêmement difficile. Vous savez ce que vous souhaitez faire, mais il y a toujours quelques pierres d’achoppement à surmonter avant que votre rêve ne devienne réalité, de la préparation des restrictions à la mise en place d’une équipe. Cela vous ressemble ? Que vous envisagiez une extension de cuisine lumineuse et agréable pour la famille ou un ensemble de luxe dans le grenier, ces conseils peuvent vous aider à gérer votre nouvelle partie de rénovation avec panache – et à faire en sorte que la procédure soit la plus simple et la moins angoissante possible. Avant de vous lancer dans une rénovation, vous devez avoir une idée de ce que vous essayez d’accomplir. Plus cette vision est bonne, plus elle est grande. Si vous êtes en panne de motivation, passez un peu de temps à regarder les maisons des autres, les magazines, les sites Web d’architecture et les publications de style pour créer un tableau d’état d’esprit. Conservez-le comme une « bible » de la vision stylistique et discutez de ce que vous avez trouvé avec un promoteur une fois que vous êtes prêt – mais ceci étant dit, essayez de ne pas être trop ferme et restez également ouvert à de nouvelles suggestions. Une fois que vous avez des idées bien arrêtées pour le style, vous devez savoir ce que vous pouvez réellement faire à votre propriété, d’un point de vue légal (et monétaire). Il s’agit notamment de découvrir si vous aurez besoin d’un permis de construire ou si vous pouvez réaliser le nouveau look en dessous des aménagements autorisés (voir page 77 pour des idées). Vous devrez également vous assurer que vos suggestions seront conformes aux règles d’aménagement. Pour les travaux de grande envergure, vous pouvez bénéficier du savoir-faire en matière de conception et de préparation d’un designer ou d’un concepteur. Si votre vision de la transformation n’est pas réalisable, ils pourront vous expliquer les différentes possibilités. Pour les projets de plus petite taille ou les reconfigurations internes, demandez conseil à un entrepreneur de confiance et consultez un professionnel de l’architecture pour vous assurer que toute modification de la structure des murs est sûre. Pour être efficace, il faut savoir combien vous pouvez investir et ce que vous pouvez accomplir de manière réaliste avec ces fonds. Discutez-en avec votre concepteur ou votre entrepreneur, car ils pourront vous recommander des moyens de réaliser des économies. Déterminez dès le départ le montant que vous dépenserez pour l’équipement, les accessoires et les détails de finition et essayez de respecter les quantités allouées, car les modifications apportées ultérieurement à un style peuvent être coûteuses. Il est toujours judicieux de prévoir un budget pour les imprévus. Un tampon de 10 % devrait suffire, mais déterminez quand vous pourrez payer plus que cela. Les rénovateurs qui réussissent savent qu’il est essentiel d’avoir le meilleur groupe à bord. Vous devriez commencer par établir un dossier d’appel d’offres détaillant précisément les travaux à effectuer et les métiers indispensables. Ensuite, faites des recherches à proximité pour trouver les personnes dont vous avez besoin ; demandez à votre famille et à vos amis de vous faire des suggestions ; recherchez des critiques en ligne et consultez les organisations du secteur, telles que RIBA, The Federation of Learn Contractors, Chartered Institution of Design Technologists (CIAT) ou The British Institution of Kitchen area, Bed room and Bathroom Installers (BiKBBI). Obtenez au moins trois devis et évaluez-les en tenant compte des travaux antérieurs, des critiques et de la réactivité, ainsi que du fait que vous vous entendez bien, avant de prendre une décision sur le choix de l’entreprise. N’oubliez pas qu’une rénovation de qualité prend du temps. Faites de nombreuses recherches, finalisez le projet, obtenez les autorisations nécessaires et trouvez les bonnes affaires. Demandez constamment aux experts un calendrier aussi précis que possible. Tenez un calendrier pour marquer les phases clés du projet et gardez un œil sur qui fait quoi chaque semaine. Ne soyez pas surpris si des imprévus viennent retarder les travaux. Dans ce cas, élaborez le meilleur plan pour aller de l’avant. Si vous hâtez un projet de rénovation, vous risquez d’obtenir des résultats irréguliers, tandis que si vous le repoussez, vous risquez d’augmenter les coûts. Travaillez avec votre groupe et soyez honnête quant à vos attentes. Si vivre sur un site de construction est votre conception de l’enfer, regardez les propriétés locatives locales, afin d’être à proximité pour surveiller le processus, ou demandez aux membres de votre famille ou à vos amis proches s’ils peuvent vous héberger. Assurez-vous cependant qu’ils ont suffisamment de place. Vous ne voulez pas que deux ménages s’entassent dans la même maison en plus de la gestion d’un projet. Une fois le projet lancé, organisez une conférence hebdomadaire avec votre principal prestataire de services ou votre chef de projet pour découvrir ce qui a été fait et ce qui est préparé pour les jours à venir. Cela peut non seulement signifier que vos corps de métier respectent les échéances pour que les travaux soient terminés rapidement et dans le respect du budget, mais vous vous sentirez également parfaitement informé et dans le coup. Même s’il est utile d’acquérir une compréhension fondamentale des paramètres et des matériaux utilisés afin de savoir exactement comment une pièce a été créée, il y a forcément des termes techniques, du jargon et des pratiques que vous ne comprenez pas – c’est pourquoi vous engagez des experts, permis de construire d’un batiment industriel en fin de compte. Saisissez toutes les occasions de demander des conseils, même si vous pensez qu’ils sont « stupides ». Après des semaines de planification, de prise de décision, de débat sur les choix de style, d’évaluation des dépenses, de déménagement éventuel de votre maison et de suivi des améliorations, vous comprendrez rapidement que tout le temps et les efforts investis en valaient la peine lorsque la maison ou la pièce de rêve commencera à prendre forme. Gardez à l’esprit que si vous avez l’impression que ces étapes finales prennent du temps (surtout parce que vous mourrez d’envie d’emménager dans la nouvelle pièce et de l’utiliser), pensez à la sensation que vous ressentirez lorsque vous pourrez enfin poser vos pieds et vous détendre si tout se met en place.



L’obésité et les salaires


La plupart des recherches en sciences sociales sur l’obésité, comme son impact sur les salaires, utilisent l’indice de masse corporelle (IMC). L’IMC est imparfait car il ne parvient pas à distinguer la graisse de la masse maigre. Voici des preuves que les salaires des hommes et des femmes sont abaissés par la graisse corporelle lorsqu’une mesure directe est utilisée à la place de l’IMC.
Aux États-Unis, la proportion de la population adulte obèse est passée de 15% au milieu des années 70 à environ 33% au début des années 2000. 1 Cette augmentation spectaculaire de la prévalence de l’obésité inquiète énormément les responsables de la santé publique en raison des liens bien connus entre l’obésité et le surpoids et le risque de développer des problèmes de santé tels que l’hypertension, la dyslipidémie, le diabète de type 2, les maladies coronariennes, les accidents vasculaires cérébraux. et certains cancers. Les problèmes de santé liés au surpoids et à l’obésité imposent également un lourd fardeau économique au système de santé américain, estimé à environ 117 milliards de dollars en 2000. 2
En plus des conséquences néfastes sur la santé, l’obésité est également connue pour être associée à des résultats sociaux et économiques négatifs, tels que la stigmatisation sociale, la discrimination, une baisse de l’estime de soi et des problèmes de mariage. Récemment, ces conséquences sociales et sanitaires ont incité les économistes à étudier la relation potentielle entre l’obésité et les résultats sur le marché du travail, tels que les salaires. Ces études économiques indiquent généralement une association négative entre l’obésité et les salaires des femmes blanches, mais aucune preuve claire d’une pénalité salariale n’est apparue pour les hommes ou d’autres groupes de femmes à partir de ces études. Une caractéristique commune de la recherche économique sur l’obésité est que toutes les études utilisent une mesure de l’obésité basée sur l’indice de masse corporelle (IMC), qui est défini comme le rapport du poids en kilogrammes et de la hauteur en mètres carrés. L’Organisation mondiale de la santé fixe les seuils universellement acceptés pour la classification du surpoids et de l’obésité comme ayant un IMC supérieur à 25 et 30, respectivement.
Bien que l’IMC soit la mesure de l’obésité largement acceptée par les sociologues, il est de plus en plus reconnu par les chercheurs cliniques qu’il s’agit au mieux d’une mesure imparfaite de l’obésité (ou de l’adiposité corporelle excessive) car elle ne distingue pas la graisse corporelle de la masse maigre. Une revue systématique de la littérature médicale sur l’association entre les mesures de l’obésité basées sur l’IMC et la mortalité totale pour les patients atteints de coronaropathie entre 1996 et 2005 suggère que les patients en surpoids ont en fait un meilleur taux de survie et moins d’événements cardiovasculaires que les patients en insuffisance pondérale ou obèses. 3
Ce phénomène est connu sous le nom de paradoxe de l’obésité. Un nombre croissant d’études soulignent l’incapacité de l’IMC à distinguer correctement entre la masse grasse corporelle et la masse maigre comme une explication possible du paradoxe de l’obésité et soulignent la nécessité de développer des mesures alternatives de l’obésité, qui mieux caractériseraient les individus qui ont vraiment un excès de corps graisse. Une autre étude rapporte que les seuils d’IMC pour le surpoids et l’obésité peuvent ne pas représenter les mêmes niveaux de graisse corporelle dans divers groupes ethniques en raison de différences de constitution corporelle, de structure des graisses et de musculature qui altèrent la relation entre l’IMC et la graisse corporelle. 4 Certaines études concluent que la fiabilité de l’IMC en tant qu’outil de mesure de la graisse corporelle est discutable et que des mesures directes de la graisse corporelle fourniraient une amélioration significative vers la détection et le diagnostic de l’obésité chez les individus.
Bien que relativement inconnue des économistes, la composition corporelle est une méthode largement utilisée pour détecter la graisse corporelle par les épidémiologistes, les nutritionnistes et les physiologistes pour étudier la santé nutritionnelle, la croissance physique et les performances physiques. Dans le modèle de composition corporelle à deux compartiments, le poids corporel total est divisé en graisse corporelle et masse sans graisse. La graisse corporelle représente environ 20% à 40% du poids corporel. Il se compose essentiellement de tissu adipeux dont le rôle principal est de stocker l’énergie sous forme de graisse, tout en fournissant une mesure d’isolation. Parfois appelée masse maigre, la masse sans gras est la plus grande composante qui comprend tout le reste.
Les modèles basés sur la composition corporelle présentent plusieurs avantages par rapport aux modèles basés sur l’IMC. Premièrement, la composition corporelle reflète mieux l’état biologique du corps humain dans lequel, comme le montre la littérature médicale, la graisse corporelle est responsable de résultats de santé inférieurs, tandis que la masse sans graisse est étroitement associée à une meilleure santé. Contrairement à l’IMC, dont l’effet marginal ne fait pas l’objet d’une interprétation directe, l’effet marginal de la graisse corporelle ou de la masse sans graisse a une signification biologique qui peut être attribuée à une augmentation physique de l’un des composants du corps. Deuxièmement, par leurs effets combinés mais opposés sur la santé et les performances physiques, la graisse corporelle et la masse sans graisse peuvent exercer une influence complexe sur les résultats économiques et sociaux qui ne peuvent pas nécessairement être saisis par une mesure qui ne fait pas la distinction entre les deux. Parce que leurs effets attendus sont opposés les uns aux autres, il pourrait y avoir des cas où la graisse corporelle et la masse sans graisse s’annulent. Dans un tel scénario, un seul indice tel que l’IMC ne sera pas en mesure de découvrir le véritable effet de l’adiposité sur les résultats socio-économiques.
Graisse corporelle et salaires
Un problème d’estimation de l’effet de la graisse corporelle et de la masse grasse libre sur les salaires est la difficulté de trouver des ensembles de données qui contiennent à la fois ces mesures et les résultats économiques tels que les salaires et l’emploi. Une façon de résoudre ce problème est de combiner les informations de deux ensembles de données – l’un étant riche en résultats économiques et l’autre contenant suffisamment d’informations pour construire les mesures de la composition corporelle. Aux États-Unis, deux de ces ensembles de données sont la National Longitudinal Survey of Youth (NLSY), qui contient des données riches sur les variables économiques, et la National Health and Nutrition Examination Survey III, qui contient des données sur la graisse corporelle mesurée par la résistance électrique observée. (Lectures dites BIA, qui sont converties en mesures de la masse grasse corporelle et sans graisse en les entrant dans l’une des équations de prédiction prédéterminées développées par les cliniciens.).
Dans un article récent, Roy Wada et moi examinons l’effet de la composition corporelle sur les salaires en utilisant des mesures de la masse grasse corporelle et sans graisse. 5 Les régressions salariales sur les mesures de la composition corporelle indiquent fortement que l’augmentation des niveaux de graisse corporelle diminue les salaires des hommes et des femmes. Les effets sont très nets pour les mâles blancs, les femelles blanches, les femelles noires et, dans une moindre mesure, pour les mâles et les femelles hispaniques. Les effets de la composition corporelle sur les salaires des hommes noirs sont généralement beaucoup plus faibles que ceux des autres groupes et ils ne sont pas statistiquement significatifs.
Ces résultats sont en contraste avec les études précédentes qui ont trouvé des preuves solides d’un effet négatif sur les femmes blanches mais pas pour les autres groupes de population. Nous pensons que ces études pourraient avoir manqué l’effet sur d’autres groupes, en particulier sur les hommes, probablement en raison de l’incapacité de l’IMC à distinguer la graisse corporelle de la masse maigre. Étant donné qu’une proportion plus élevée du corps des femmes est constituée de graisse que celle des hommes (en raison de la demande de procréation et d’autres fonctions hormonales), l’IMC peut servir de meilleure mesure de la graisse corporelle excessive pour les femmes que pour les hommes. Cette corrélation liée au sexe pourrait expliquer en particulier les résultats précédemment mitigés et instables pour les hommes. Les régressions indiquent également que les personnes ayant des niveaux élevés de masse sans gras ou de masse maigre gagnent une prime salariale. En résumé, ces résultats suggèrent que les responsables de la santé publique devraient accorder une attention particulière aux effets opposés des composants de la composition corporelle sur la santé et les résultats sur le marché du travail lors de la conception de programmes d’intervention nutritionnelle visant à réduire l’incidence de l’obésité.



Une fragrance unique


Exactement ce qu’est un parfum, un arôme créé par les huiles essentielles naturelles de la vie végétale et aussi par les aromates artificiels. La combustion de l’encens qui accompagnait les rites religieux de l’ancien Extrême-Orient, de la Palestine et de l’Égypte se dirigea progressivement vers la consommation privée de Cologne. En Grèce, là où les parfums de rose avaient été produits pour la première fois, l’utilisation du parfum est devenue courante. À Rome, l’eau de Cologne a été utilisée de manière extravagante. Au Moyen Âge, les Croisés ont aidé à ramener l’information de la parfumerie aux pays européens de l’Est. C’est absolument à cette époque que les composés pour chiens ont été initialement ajoutés sous forme de fixateurs – musc, ambre gris, civette et castoreum (à travers le castor). Les parfumeurs italiens ont payé à Paris (juste après 1500), puis la France a succédé en tant que leader de l’industrie. Après 1500 parfums sont devenus modernes; les femmes et les hommes portaient un pomander décoratif ou un paquet de pouncet (sans boîte de parfum d’humidité), Tematis qui était installé à partir de votre estomac. Chaque ménage riche a connu une «pièce immobile» où l’eau de Cologne était bien préparée avec les femmes. Depuis le tout début du 19e siècle, les chimistes ont examiné de nombreuses huiles essentielles pour la peau et ont produit des milliers de produits synthétiques, certains imitant des produits naturels et d’autres produisant de nouveaux parfums. De nos jours, la plupart des parfums sont des mélanges d’odeurs entièrement naturelles et synthétiques ainsi que de fixateurs qui égalisent la vaporisation des mélanges et incluent le piquant. Les ingrédients sont généralement associés à des boissons alcoolisées pour les odeurs d’eau et à des bases grasses pour la plupart des produits de beauté. Les fabricants d’huiles parfumées les mieux notés seraient les Indes orientales, l’île de la Réunion et le sud de la France. La Bulgarie et la Turquie sont reconnues pour l’attar de fleurs, l’Algérie pour les huiles de peau de géranium, la France pour les huiles de citron ou de citron vert et l’Angleterre pour la lavande et la menthe poivrée. Les maisons de style vraiment étonnantes de Paris sont réputées pour les parfums qui portent leurs marques. Pour les femmes de toute la planète ci-dessus, le parfum indique le charme, et sur la planète du parfum, Jean-Claude Ellena est en fait une superstar. Dans ce livre en particulier, le maître lui-même franchit les portes de son laboratoire et souligne tout le processus de fabrication de parfums précieux, révélant les véritables stratégies et recettes secrètes impliquées dans cette mystérieuse alchimie. Cologne est en fait un secteur impitoyable et secret de plusieurs milliards de dollars, et Ellena propose une excursion d’initié, nous guidant de la motivation originale du mélange d’essences et de composants fabriqués par l’homme, sur l’emballage de produits de luxe et la publicité dans les boutiques chics du monde entier, ainsi que les spécifications de sécurité de base de plus en plus exigeantes qui peuvent être mises en œuvre pour chaque contenant de parfum qui est certainement fabriqué. Il décrit le fonctionnement de l’expérience des odeurs, en utilisant une palette de matériaux parfumés, et exactement comment il décide et compose en privé un parfum. Aussi, il montre sa méthode particulière de développement d’un parfum en jouant avec nos souvenirs olfactifs afin de rendre le parfum séduisant et idéal par les femmes et les hommes du monde entier. Fragrance illumine le royaume du parfum et du désir produit par un parfumeur qui peut avoir eu des clients les amours de Cartier, Truck Cleef And Arpels, Bulgari et Hermés.



La technologie pour tous


Nous vivons dans un monde où le fossé ne cesse de s’élargir entre les compétences du travailleur moyen et les capacités exigées par les technologies frontalières. Les robots, les logiciels et l’intelligence artificielle ont augmenté les bénéfices des entreprises et augmenté la demande de professionnels qualifiés. Mais ils remplacent les ouvriers d’usine, les vendeurs et les employés de bureau, creusant ainsi la classe moyenne traditionnelle. Ce déficit de compétences »contribue à aggraver les inégalités économiques et l’insécurité et, finalement, à la polarisation politique – les problèmes signalés de notre époque.
La réponse conventionnelle est une éducation plus importante et de meilleure qualité. Si les gens ordinaires ne doivent pas être laissés pour compte dans cette course séculaire entre l’éducation et la technologie », pour reprendre l’expression évocatrice des économistes de Harvard, Claudia Goldin et Lawrence Katz, les sociétés doivent faire un bien meilleur travail en matière de formation et de recyclage de leur main-d’œuvre pour nouvelles technologies. Les chauffeurs de camions doivent devenir des programmeurs informatiques.
C’est un remède étrangement unilatéral. En toute logique, l’écart entre les compétences et la technologie peut être comblé de deux manières: soit en augmentant l’éducation pour répondre aux demandes des nouvelles technologies, soit en réorientant l’innovation pour qu’elle corresponde aux compétences de la main-d’œuvre actuelle (et future) . La deuxième stratégie ne fait guère de bruit dans les discussions politiques. C’est pourtant la stratégie la plus évidente et peut-être la plus efficace. Comme le souligne mon collègue de Harvard, Ricardo Hausmann, nous devons créer des emplois pour les travailleurs que nous avons, pas pour les travailleurs que nous souhaitons avoir.
L’angle mort est le produit d’un certain type de fétichisme technologique qui considère l’innovation comme une force exogène se comportant selon ses propres règles. Nous avons tendance à penser que nous avons peu de contrôle sur l’innovation. C’est la société qui doit s’adapter au changement technologique, et non l’inverse.
Cette perspective ne tient pas compte du degré auquel l’innovation est stimulée par des valeurs – souvent non déclarées – et des incitations. D’une part, les gouvernements jouent un rôle omniprésent dans la formation du paysage technologique. Les économies avancées dépendent généralement des subventions à la recherche et au développement, du financement de la recherche scientifique fondamentale, des règles sur les brevets, des garanties de prêt, des politiques de développement des grappes et du soutien direct du gouvernement aux technologies pionnières. Toutes ces politiques font pencher la balance pour déterminer quel type d’innovations ont lieu.
Considérez la technologie derrière les véhicules autonomes. Aux États-Unis, la Defense Advanced Research Projects Agency (DARPA), une branche du département américain de la Défense, a donné un coup de pouce à l’innovation dans ce domaine en lançant des concours pour les innovateurs dans les années 2000. L’objectif était militaire: réduire les pertes sur le champ de bataille. Mais, comme l’indique la DARPA sur son site Web, ces défis ont contribué à créer un état d’esprit et une communauté de chercheurs qui, une décennie plus tard, feraient des flottes de voitures autonomes et d’autres véhicules terrestres une quasi-certitude pour le premier quart du 21e siècle. » Un organisme gouvernemental plus préoccupé par les emplois aurait peut-être plutôt préconisé différentes technologies.
D’autres politiques peuvent avoir des effets involontaires sur l’orientation du changement technologique. Comme l’a fait valoir Daron Acemoglu du MIT, les politiques fiscales faussent généralement les incitations à l’innovation contre le travail en encourageant l’automatisation. Les entreprises bénéficient d’allégements fiscaux lorsqu’elles utilisent des robots, mais pas lorsqu’elles créent un très bon emploi. En fait, les emplois sont taxés, tandis que les machines sont subventionnées.
Au lieu de remplacer la main-d’œuvre semi-qualifiée ou non qualifiée par des machines, les sociétés peuvent promouvoir des innovations qui augmentent spécifiquement les tâches que les travailleurs ordinaires sont capables d’exécuter. Cet objectif pourrait être atteint grâce à de nouvelles technologies qui permettent soit aux travailleurs d’effectuer le travail qui était auparavant effectué par des personnes plus qualifiées, soit de permettre la prestation de services plus spécialisés et personnalisés par la main-d’œuvre existante.
Des exemples du premier type de technologie sont les systèmes d’intelligence artificielle qui permettent aux infirmières d’exécuter les procédures des médecins ou aux artisans d’entreprendre des tâches d’ingénieurs. Un exemple de ce dernier type serait la technologie qui permet aux enseignants de fournir une éducation adaptée aux capacités et aux besoins des différents élèves.
Une raison fondamentale pour laquelle la société sous-investit dans les innovations qui profitent aux gens ordinaires est liée à la répartition du pouvoir. La science et la technologie sont conçues pour apporter des réponses et résoudre des problèmes. Mais quelles questions sont posées et quels problèmes sont résolus dépend de la voix qui prend le dessus. Par exemple, certaines des limitations de l’utilisation des technologies médicales dans le sens suggéré ci-dessus découlent du pouvoir qu’ont les médecins d’exclure les travailleurs médicaux moins qualifiés des tâches avancées.
La façon dont une technologie donnée est déployée sur le lieu de travail est intimement liée à la personne qui prend les décisions. Des technologies sophistiquées peuvent permettre aux managers de surveiller chaque mouvement de leurs employés et de mesurer leur efficacité, permettant aux entreprises de fixer des normes de productivité toujours plus exigeantes, à un coût considérable pour la santé physique et mentale des employés. Alternativement, des technologies très similaires peuvent permettre aux travailleurs d’augmenter leur autonomie et de contrôler leur environnement de travail. Il est facile de deviner quelle utilisation prédomine dans la pratique.
Les considérations éthiques jouent également un rôle – explicite ou implicite – dans l’orientation de l’innovation. Ici aussi, le pouvoir compte. Lorsque certains employés de Google ont commencé à se plaindre et à s’organiser contre le développement de systèmes d’intelligence artificielle qu’ils jugeaient contraires à l’éthique – destinés à être utilisés dans le contrôle de l’immigration ou à espionner – la société a bloqué et certains dirigeants de l’effort interne ont été licenciés.
Dans d’autres domaines, nous tenons pour acquis que les valeurs doivent se refléter dans notre façon de poursuivre l’innovation. Par exemple, les réglementations nationales limitent généralement l’expérimentation sur les animaux et les humains. Pourquoi ne pas étendre cela aux implications de la technologie sur le marché du travail? Par la réglementation ou d’autres moyens, notre système d’innovation doit tenir compte des effets des nouvelles technologies sur la qualité et la quantité des emplois.
Le changement technologique ne suit pas sa propre direction. Il est façonné par des cadres moraux, des incitations et du pouvoir. Si nous réfléchissons davantage à la façon dont l’innovation peut être dirigée pour servir la société, nous pouvons nous permettre de moins nous soucier de la façon dont nous devons nous y adapter.



Avoir un super ordinateur


Les universitaires du College of Sussex ont mis au point une technique de turbocompression des ordinateurs de bureau pour leur donner exactement la même capacité que des supercalculateurs valant des dizaines de millions de livres. Le Dr James Knight et le professeur Thomas Nowotny de l’École d’ingénierie et d’informatique de l’Université du Sussex ont utilisé les dernières unités de manipulation graphique (GPU) pour donner à un ordinateur de bureau unique la capacité d’imiter des modèles d’esprit de dimension presque illimitée. Ils pensent que les progrès, complets dans la recherche scientifique computationnelle de la nature, permettront à de nombreux autres experts du monde entier d’entreprendre des recherches sur un simulateur mental à grande échelle, comme l’investigation des conditions neurologiques. Actuellement, le coût des supercalculateurs est vraiment prohibitif, ils ne sont raisonnables que pour les grandes organisations et les ministères et ne sont donc pas accessibles pour de nombreux chercheurs. En plus d’économiser des dizaines de kilos sur les dépenses d’un supercalculateur, les simulations fonctionnent sur l’ordinateur de bureau et le PC nécessite environ dix fois moins d’énergie, offrant également un avantage substantiel en matière de durabilité. Le Dr Knight, chercheur en informatique personnelle à l’Université du Sussex, a déclaré: « Je pense que le principal avantage de notre recherche est simplement l’accessibilité. En dehors de ces très grandes entreprises, les universitaires doivent normalement postuler pour obtenir même un temps limité sur un supercalculateur pour l’objectif technologique. Il s’agit d’une barrière raisonnablement plus élevée à l’entrée, ce qui freine potentiellement un grand nombre d’études substantielles. résoudre des problèmes auxquels les esprits biologiques réussissent bien mais qui sont actuellement des simulations passées. «Parallèlement aux développements que nous avons maintenant démontrés dans le domaine de la connectivité en ligne procédurale dans le cadre du matériel GPU, nous pensons qu’il est en outre possible de créer de nouveaux types de matériel neuromorphique entièrement conçus pour la connectivité en ligne procédurale. Des composants clés pourraient être mis en œuvre directement dans l’équipement qui peut conduire à des augmentations de temps de calcul beaucoup plus substantielles.  » L’étude crée autour du spécialiste révolutionnaire des personnes fonctionnelles Eugene Izhikevich qui a lancé une méthode similaire pour le simulateur d’esprit à grande échelle en 2006. À l’époque, les ordinateurs étaient trop lents pour que la méthode soit largement pertinente, ce qui signifie que la simulation de conceptions cérébrales à grande échelle Jusqu’à présent, DWA agence web seule une minorité de chercheurs privilégiés a eu accès aux techniques de supercalculateur. Ils ont utilisé la méthode d’Izhikevich sur un GPU moderne, avec environ 2000 fois la puissance de traitement disponible il y a quinze ans, pour créer un modèle à l’avantage de la coupe du cortex visuel d’un Macaque (avec 4,13 × 106 neurones et 24,2 × 109 synapse) qui ne pouvait auparavant être simulé sur un supercalculateur. La simulation de réseau neuronal à pic plus rapide du GPU des chercheurs utilise la grande quantité d’énergie de calcul sur un GPU pour produire «  de manière procédurale  » une connectivité et des poids synaptiques «  à la volée  » lorsque des pics sont déclenchés – éliminant ainsi le besoin d’acheter des informations de connectivité en ligne dans souvenir. L’initialisation à partir du modèle des chercheurs avait pris 6 minutes et le simulateur de chaque seconde biologique avait pris 7,7 minutes à l’état fondamental et 8,4 minutes en condition de détente – autant que 35% de temps en moins qu’un simulateur de supercalculateur antérieur. En 2018, un seul détenteur de l’initialisation du supercalculateur IBM Blue Gene / Q à partir de la conception a pris environ 5 minutes et la simulation d’un 2ème du temps biologique a pris environ 12 minutes. Le professeur Nowotny, professeur d’informatique au College of Sussex, a déclaré: «Les simulations à grande échelle de modèles de systèmes neuronaux à pointes sont un outil important pour améliorer notre compréhension de la dynamique et éventuellement du but des esprits. Néanmoins, même les petits mammifères tels que les rongeurs ont à l’achat de 1 × 1012 connexions synaptiques, ce qui signifie que les simulations ont besoin de plusieurs téraoctets de données – une exigence de souvenir peu pratique d’une seule machine de bureau. « Ces études scientifiques changent la donne pour les chercheurs en neurosciences computationnelles et en IA qui sont maintenant en mesure de imite les circuits cérébraux sur leurs propres postes de travail à proximité, cela permet également aux personnes extérieures au monde universitaire de transformer leur PC de jeu vidéo en un superordinateur et d’exploiter de grands réseaux de neurones.  »



Comment les guérilleros ont été conduits à la table de négociation


Les négociations avec les FARC sont trop avancées pour que quiconque puisse prendre du recul maintenant
Après 50 ans d’insurrection rurale, la plus longue guerre de guérilla des Amériques, la Colombie est sur le point d’entrer dans une nouvelle phase qui pourrait être un modèle pour d’autres pays qui luttent pour sortir du conflit.
Ces derniers mois, Juan Manuel Santos, président de la Colombie, et Rodrigo Londoño Echeverri (nom de guerre Timochenko), le chef de l’un des deux groupes rebelles marxistes colombiens, les FARC, ou les Forces armées révolutionnaires de
La Colombie a conclu deux accords décisifs sur la justice transitionnelle et le sort des quelque 50 000 personnes disparues pendant la guerre.
Le processus semble avoir atteint un point à partir duquel aucune partie ne peut battre en retraite et un accord de paix pourrait être conclu d’ici mars 2016. Si cela se produit, le gouvernement prévoit d’organiser un référendum à ce sujet dans les deux mois.
Les deux parties ont entamé des négociations de paix en août 2012 en signant un accord pour mettre fin au conflit et instaurer une paix stable. Ils ont convenu de négocier sur cinq questions: le développement rural; participation politique; la fin du conflit armé et le dépôt d’armes par les FARC; trafic de drogue et culture illicite de drogues; et les droits des victimes du conflit.
Des accords pour les trois premières questions ont été négociés au cours de la première année et demie. Leur mise en œuvre ne sera pas facile, car elles traitent de questions aussi sensibles que les droits fonciers, les minorités, les industries extractives et les trafiquants de drogue puissants. Malgré de graves crises politiques, les parties ont poursuivi leur engagement dans le processus de paix, grâce très souvent au rôle proactif de la Norvège et de Cuba, les deux facilitateurs du processus. Un deuxième mouvement de guérilla colombien, l’Armée de libération nationale (ELN), a refusé de participer au processus de paix, mais des efforts sont en cours pour l’encourager à y adhérer.
L’accord sur la justice transitionnelle a été difficile à réaliser. Les FARC ont déclaré qu’elles n’étaient pas disposées à participer aux négociations si leurs dirigeants finissaient par aller en prison pour crimes contre l’humanité.
De même, les forces armées, tout en admettant que certaines violations des droits de l’homme se sont produites dans la guerre contre l’insurrection, ont souligné qu’elles obéissaient aux ordres d’un gouvernement démocratique et n’étaient pas disposées à voir certains de leurs officiers aller en prison pendant que les dirigeants des FARC se rendaient parlement’.
La Colombie est partie et a ratifié le statut de Rome de la Cour pénale internationale, ce qui signifie que l’amnistie pour les dirigeants des deux parties n’est pas une option.
Les pourparlers de paix colombiens, ayant tiré des enseignements des négociations au Salvador, en Afrique du Sud et en Irlande du Nord, entre autres, ont adopté des caractéristiques innovantes, en particulier des consultations avec les victimes et l’inclusion des femmes et le rôle du genre. Les négociations n’ont eu lieu qu’entre les deux principales parties, mais les voix et l’influence d’autres secteurs de la société colombienne et les opinions d’experts internationaux ont joué un rôle important.
La création de sous-commissions a été tout aussi importante. Le gouvernement colombien et les FARC ont créé des sous-comités pour discuter de questions telles que le cessez-le-feu, la pose d’armes et la réintégration des guérilleros. Ils ont également créé une commission historique pour examiner les origines du conflit et le sort des victimes touchées. Une avancée importante a été la création d’une sous-commission de l’égalité des sexes qui reçoit des propositions d’organisations féminines et lesbiennes, gays, bisexuelles, transgenres et intersexuées.
La présence de victimes a rendu les négociations plus complexes mais en même temps un processus plus profond et plus créatif que les autres pourparlers de paix. Des délégations de victimes de tous bords – guérilleros, paramilitaires et forces armées – étaient présentes à La Havane depuis six mois. Parallèlement, l’Organisation des Nations Unies et l’Université nationale de Colombie ont organisé des forums permettant aux victimes de témoigner. Près de 24 000 victimes ont eu la possibilité de présenter leurs propositions et leurs idées aux négociateurs.
Les parties à la négociation et les facilitateurs ont régulièrement consulté des experts juridiques pour trouver des formules pour résoudre le conflit. L’accord du 23 septembre sur la justice transitionnelle comprend les points suivants:
L’accord est basé sur le «dire la vérité»: une personne (guérilla, soldat ou civil) qui reconnaît sa participation à des crimes graves sera passible d’une peine d’emprisonnement de cinq à huit ans. Si l’individu ne reconnaît pas son crime, la peine pourrait aller jusqu’à 20 ans de prison.
Mais les crimes contre l’humanité, tels que la torture ou les assassinats, ne recevront pas d’amnistie. Vicenç Fisas de l’École pour une culture de la paix (Barcelone) conseille les parties depuis de nombreuses années. Il pense que «la paix a toujours un prix. Et ce prix est la magnanimité dans l’application de la justice quand il y a de la vérité, la volonté de réparer, un engagement à la non-répétition et le désir de demander pardon pour les crimes commis.
Les parties ont convenu de créer une «juridiction spéciale pour la paix» qui traitera des crimes commis pendant la guerre. Il y aura des peines alternatives pour les FARC (à définir). Le régime de justice transitionnelle s’appliquera à tous les acteurs armés impliqués dans le conflit armé interne.
Les FARC déposeront leurs armes au plus tard 60 jours après la signature d’un accord. Le gouvernement garantira la pleine «réintégration dans la vie civile» des membres des FARC. Concernant l’accord sur les personnes disparues, deux mécanismes seront mis en place. L’une met en œuvre «des mesures humanitaires immédiates pour la recherche, la localisation et la libération dans la dignité des dépouilles des personnes présumées disparues dans le contexte et en raison du conflit armé interne». La deuxième série de mesures mettra en place une unité spéciale pour retrouver les personnes portées disparues.
Le régime de justice transitionnelle a divisé les experts juridiques et les campeurs des droits de l’homme. Virginia Bouvier de l’Institut américain pour la paix considère que: «Il n’y a pas d’autre processus de paix dans le monde où les victimes aient joué un rôle aussi central. Nous avons ici un modèle de justice transitionnelle historique et innovant. Il donne la priorité à la vérité, mais il n’échappe pas au besoin de justice.
«Le modèle est innovant dans son inclusion de la justice réparatrice et dans sa concentration sur la réparation des dommages infligés aux individus et aux communautés à travers un processus de dialogue et de guérison. Cela mérite d’être surveillé car il pourrait fournir de nouveaux modèles pour d’autres zones de conflit cherchant à trouver un moyen de sortir de la guerre.
Mais pour Human Rights Watch, l’accord «priverait de justice des milliers de victimes de violations graves des droits de l’homme et du droit humanitaire en permettant à leurs agresseurs d’échapper à des sanctions significatives. Si la Juridiction spéciale pour la paix inciterait fortement les contrevenants à avouer leurs crimes, elle permettrait également aux responsables d’atrocités de masse d’éviter de passer du temps en prison. »
Pour sa part, la CPI a noté «avec optimisme que l’accord exclut l’octroi de toute amnistie pour les crimes de guerre et les crimes contre l’humanité», et vise, entre autres, «à mettre fin à l’impunité pour les crimes les plus graves».
Il y a une forte opposition intérieure sous la forme de l’ancien président Alvaro Uribe. Pendant son mandat, il a réorganisé les forces armées, avec Juan Manuel Santos comme ministre de la Défense, et a lancé une forte offensive qui a affaibli l’insurrection. Uribe représente le secteur rural conservateur qui s’oppose à toute réforme du régime foncier et à tout changement d’un système politique dans lequel les libéraux et les conservateurs ont alterné au pouvoir sans changer le statu quo. Il est également populaire parmi les secteurs de la société qui ne font pas confiance aux FARC pour respecter l’accord de paix.
Les milices et les paramilitaires ont toujours été présents dans l’histoire de la Colombie grâce à la faiblesse d’un État qui n’a jamais eu le plein contrôle de son territoire national, l’isolement de certaines zones en raison de la géographie complexe du pays et l’héritage d’un système colonial qui a donné des terres aux caudillos locaux en échange de la fidélité.
Certains de ces problèmes persistent. Un rapport de 2014 de DeJusticia, un groupe de réflexion colombien sur les questions juridiques, indique que l’État n’atteint pas et ne fournit pas de services sur environ 60% de son territoire, laissant 6 millions de citoyens vivant dans une situation d’apartheid institutionnel dans laquelle les autochtones les personnes et les personnes d’ascendance africaine sont les plus marginalisées. À la périphérie, l’État n’est ni légitime ni démocratique et est remplacé par «de grands hommes – chefs de la mafia et de la guérilla, propriétaires et paramilitaires.
Le monde des affaires est en général sceptique vis-à-vis du processus de paix et certains de ses membres craignent d’être tenus pour responsables en tant que complices de crimes de guerre. Mais certaines entreprises urbaines et rurales voient les avantages d’un accord de paix.



De l’énergie avec nos poubelles


Les technologies énergétiques alternatives telles que les panneaux solaires et les éoliennes sont devenues des éléments de plus en plus essentiels du mélange énergétique et le seront encore plus à l’avenir. Néanmoins, l’une des principales préoccupations concernant chaque énergie éolienne et solaire est qu’ils n’ont pas la capacité d’offrir de l’énergie de charge de base sans ajouter d’espace de stockage d’énergie par batterie. Un autre type d’énergie renouvelable est le gaspillage d’énergie, ou bioénergie. Il ne fait aucun doute que certaines personnes ne les considèrent pas comme vertes et elles ne sont pas dans la même tradition que le solaire et le vent soufflant. Cependant, notre capacité à développer la biomasse ou, certainement, à créer encore du gaspillage est indiscutable. L’un des avantages de la valorisation énergétique est qu’elle détourne les déchets des sites d’enfouissement, ce qui en fait une meilleure option que de simplement se débarrasser de nos déchets et de ne rien en récupérer. Cependant, poubelle il convient de noter que seuls les déchets qui ne peuvent pas être recyclés doivent être utilisés dans un programme de valorisation énergétique des déchets. En bref, la hiérarchie des déchets doit être remarquée dans toute planification pour faire face à notre gaspillage, comme essayer de recycler, les déchets en énergie et les options d’enfouissement. La valorisation énergétique des déchets utilise les déchets comme énergie pour produire de l’électricité, tout comme d’autres centrales énergétiques utilisent du charbon, du pétrole ou du gaz naturel. Vous pouvez trouver une gamme de systèmes utilisés dans le monde aujourd’hui et le type de technologies choisies est essentiellement déterminé par le type de matière première disponible. Les centrales dilapidées en énergie peuvent être de très petite taille, comme la végétation à fonction digestive anaérobie que l’on peut observer dans certains élevages, jusqu’à la végétation qui alimentera les zones métropolitaines. De nombreux pays ont maintenant créé avec succès des centrales électriques, les pays européens devenant le meilleur choix parmi de nombreux systèmes actuellement utilisés. C’est en grande partie à cause de l’insuffisance des décharges disponibles dans la région très peuplée mais géographiquement petite. En conséquence, des pays tels que le Danemark et la Suède utilisent déjà avec succès le gaspillage d’électricité depuis de nombreuses années pour tirer chaque chaleur et énergie de leurs quartiers. En effet, quelques-unes des usines occidentales de valorisation énergétique sont non seulement judicieuses et bénéficient également d’une large assistance de proximité, mais elles ont également une valeur architecturale considérable. De tous les systèmes de valorisation énergétique des déchets, l’incinération – la combustion de matériaux tels que les déchets avec récupération d’énergie – est la plus courante. Bien que le terme incinération indique très probablement un processus sale, simplement parce que nous nous souvenons tous des incinérateurs d’arrière-cour d’il y a longtemps, vous trouverez de nos jours des normes d’émission rigides. Celles-ci incluent des spécifications pour les oxydes nitreux (NOx), le dioxyde de soufre (SO2), les toxines chimiques et les dioxines. Par conséquent, les végétaux d’incinération modernes sont considérablement plus propres que les anciens types, dont certains ne récupèrent ni l’énergie ni les composants. Les incinérateurs modernes réduisent la quantité de déchets initiaux de 95% à 96%, en fonction de la structure et du niveau de récupération des composants tels que les métaux de vos cendres pour le recyclage. Quelques-unes des critiques de l’incinération incluent l’émission de grosses particules, de métaux lourds, de traces de dioxine et d’acidité – même si elles sont toutes très mineures dans la végétation contemporaine. D’autres préoccupations concernent la bonne gestion des résidus tels que les cendres de voyage, qui doivent être traitées dans une installation d’élimination des déchets dangereux, et les cendres de base, qui doivent être réutilisées correctement. Encore une fois, la plus grande inquiétude est que les matériaux qui devraient être réutilisés se retrouveront dans une usine de valorisation des déchets au lieu d’être recyclés. Les incinérateurs ont des rendements électriques de 14 à 28 %. Afin d’éviter de perdre le reste de l’énergie, il peut être utilisé dans le chauffage urbain par cogénération. Les incinérateurs de cogénération ont un rendement total de plus de 80 %. Ces dernières années, plusieurs autres systèmes nouveaux et en croissance ont été créés pour produire de l’énergie à partir de déchets ainsi que d’autres énergies sans combustion directe. Certains de ces systèmes peuvent même produire beaucoup plus d’énergie électrique à partir de la même quantité d’énergie que ce qui serait possible par une combustion immédiate. Cela est principalement dû à la séparation des éléments corrosifs (cendres) de votre énergie convertie, permettant ainsi de plus grandes plages de température de combustion dans les chaudières, les turbines à essence, les moteurs à combustion interne et les piles à combustible.



Connaitre les langages de programmation


Internet ne peut être amélioré que grâce au codage. Mais on peut à juste titre se demander comment fonctionne exactement le codage. C est en fait un langage de programmation informatique créé au début des années 1970 par l’informaticien américain Dennis M. Ritchie des Bell Labs (anciennement AT&T Bell Labs). C a été créé comme un langage minimaliste pour être utilisé dans l’écriture de systèmes d’exploitation pour mini-ordinateurs, tels que le DEC PDP 7, qui avait des souvenirs très limités par rapport aux systèmes informatiques centraux de l’époque. Le vocabulaire a été conçu entre 1969 et 1973, parallèlement au premier développement du système d’exploitation UNIX. C’était selon le CPL (langage de programmation mixte), qui avait été initialement condensé dans le vocabulaire de programmation B – un vocabulaire de programmation informatique personnel simplifié – développé en 1969-70 par Ken Thompson, informaticien américain et collègue de Ritchie. Ritchie a ensuite réécrit et réparé les fonctions de CPL pour produire du C et a finalement réécrit le système d’exploitation UNIX dans le nouveau vocabulaire. Les langages d’appareil et de configuration sont « de faible niveau », ce qui oblige un programmeur à gérer clairement tous les attributs idiosyncratiques d’un ordinateur en matière de stockage et de fonctionnement des données. En revanche, les dialectes de niveau supérieur empêchent un développeur de stresser sur ce type de considérations et fournissent une notation qui est plus facile à écrire et à parcourir par les programmeurs. Au fur et à mesure que le programme UNIX s’améliorait, une série de modifications ont eu lieu en C entre 1977 et 1979. Pendant ce temps, une explication du vocabulaire s’est développée pour devenir largement accessible via une réserve, The C Programming Language (1978), par Brian W. Kernighan et Ritchie. Au milieu des années 1980, il est devenu important de créer une norme officielle pour le C, car il était utilisé dans des emplois soumis à des accords industriels et gouvernementaux fédéraux. En 1983, le National Specifications Institute (ANSI) des États-Unis a mis en place un comité qui a modifié et standardisé la langue. Depuis lors, C continue d’être appelé ANSI Regular C, et il continue d’être populaire dans le monde des systèmes de type UNIX. C est également devenu le langage de codage le plus couramment utilisé pour écrire d’autres logiciels et programmes système. Les descendants de C incluent Concurrent C, Goal C, C*, Equadoria C# et le C couramment utilisé. Le vocabulaire de programmation Java a été lancé en 1994 en tant que simple sous-ensemble de C pour un déploiement sur Internet ainsi que pour une utilisation dans des gadgets portables avec une mémoire restreinte ou des capacités de traitement limitées. Un vocabulaire d’équipement se compose des codes numériques des procédures que l’ordinateur personnel particulier peut exécuter immédiatement. Les codes sont des chaînes de 0 et de 1, ou des chiffres binaires (« bits »), qui sont fréquemment convertis à la fois de et vers l’hexadécimal (base 16) pour la visualisation et l’ajustement par l’être humain. Les directions de vocabulaire de périphérique utilisent généralement des bits pour signifier des procédures, comme l’addition, plus certains pour signifier des opérandes, ou peut-être la position de l’instruction suivante. Le vocabulaire machine est difficile à lire et à écrire, car il ne ressemblera pas à la notation mathématique conventionnelle ou au vocabulaire humain, et ses codes varient d’un ordinateur à l’autre. Les dialectes algorithmiques sont conçus pour transmettre des calculs mathématiques ou symboliques. Ils peuvent transmettre des procédures algébriques en notation tout comme les mathématiques et permettre l’utilisation de sous-programmes qui regroupent des opérations couramment utilisées pour la réutilisation. Ce sont les premières langues de niveau supérieur. Le World Wide Web est vraiment un système permettant d’afficher du texte, des graphiques et de l’audio récupérés sur Internet sur l’ordinateur personnel. Chaque unité d’accès est considérée comme une page Web, et ces pages contiennent fréquemment des « liens » qui permettent de récupérer des pages connexes. Le code HTML (vocabulaire de balisage hypertexte) est définitivement le vocabulaire de balisage pour l’encodage des pages Web. Il a été créé par Tim Berners-Lee dans le laboratoire de physique nucléaire du CERN en Suisse dans les années 1980 et est également défini par une DTD SGML. Les étiquettes de balisage de code HTML indiquent les composants d’enregistrement tels que les en-têtes, les phrases et les tableaux. Ils marquent un enregistrement pour l’affichage par un programme informatique connu sous le nom de navigateur Internet. Le navigateur Web interprète les balises en affichant les titres, les phrases et les tableaux à l’intérieur d’un design adapté à la taille de l’écran et aux polices qui lui sont accessibles.



Comment apprendre à piloter un avion


Mon vol a commencé des années avant ma première leçon. Dans l’une de mes publications précédentes, The Joy of Soaring, j’ai détaillé les heures passées en tant qu’enfant à regarder des avions au terminal de l’aéroport de Chicago Midway (MDW), à laisser tomber des nickels dans les jumelles à pièces au sommet de la plate-forme d’observation du terminal, désormais supprimée. « Ces excellentes machines argentées prendraient de la vitesse et monteraient dans l’atmosphère en pliant leurs pneus parce qu’elles grimpaient », ai-je publié. «Je regarderais jusqu’à ce que je fuis les avions ou l’argent. Chez MDW, c’était normalement ce dernier. Mais j’étais connecté. Je ne suis même pas certain de savoir pourquoi, mais j’étais accro. Je n’ai jamais perdu ce sentiment d’admiration et de questionnement pour avoir une chance de voir le monde d’une manière que peu d’autres personnes pouvaient à l’époque. Doug Stewart, instructeur de vol certifié depuis toujours et pilote-examinateur désigné par la FAA dans le Massachusetts, le reconnaît du point de vue philosophique : « Voler nous donne une perspective du monde d’une manière qui nous permet de réaliser notre insignifiance du point de vue cosmique, mais en même temps l’envol nous avons la capacité d’avoir le contrôle de notre destin », m’a-t-il dit. Exactement quel merveilleux paradoxe. Comme ci-dessus, donc ci-dessous. L’aviatrice étudiante Eva Kozlowski, une autre habitante de Chicago, se souvient que sa passion pour l’aviation avait également commencé à MDW. « Je faisais du vélo là-bas et voyais des avions de l’extérieur d’une clôture pendant de nombreuses heures. » Du centre du Colorado, Kaleb Timberlake a déclaré que sa tante Madeleine, une instructrice de vol, l’avait fait commencer. Austin, texas Henderson, un pilote privé récemment produit, ne sait même pas exactement pourquoi il a commencé à penser au vol plané, bien qu’ils aient des amis qui volent. « Je me souviens avoir informé ma femme peu de temps après notre mariage en 2004 que je savais juste que je voulais envisager des cours, mais la fonction et d’autres problèmes m’ont gêné. » Il a commencé à suivre des cours de vol à voile en octobre 2018 et a réussi son tour de contrôle de pilote personnel en mars. Le nouveau coaching pilote connaît une résurgence après que la FAA a noté des chiffres décevants de début d’études collégiales en 2009 d’à peine 70 000 personnes. L’année dernière, l’agence a délivré près de 168 000 certificats d’aviateur à des étudiants universitaires. Cependant, le nombre d’individus qui préparent réellement leurs certificats personnels est toujours le même que celui de l’année dernière, et bien sûr les chiffres n’expliquent pas l’inspiration juste derrière les débuts des étudiants, ni pourquoi certaines personnes abandonnent avant d’obtenir une licence. En utilisant la rareté des pilotes d’avions professionnels, beaucoup de ces départs pourraient être liés à des aviateurs professionnels. Vous trouverez 6 à 30 jours d’attente autour des listes dans certaines écoles de pilotage, en partie à cause d’une pénurie de CFI. La FAA a déclaré que les chiffres de CFI étaient en hausse de 15 % par rapport à 2009, mais ce n’est toujours pas assez de formateurs pour gérer un tsunami de pilote professionnel couplé à de nouveaux étudiants qui souhaitent voler eux-mêmes pour les affaires ou le plaisir. Bien qu’apprendre à voler soit époustouflant pour la plupart d’entre eux, la procédure exige une fonction qui commence par devenir et rester structurée dès le premier jour. Les problèmes vont de trouver un bon entraîneur, de remplir les papiers appropriés pour l’élève-pilote, de choisir une école Part 61 ou Part 141, de réserver du temps pour étudier, de trouver comment couvrir cette aventure et bien sûr de passer du temps à respirer et à se souvenir le processus est toujours censé être amusant. Faire une certification de pilote personnel indique qu’un aviateur peut transporter des passagers dans de bonnes conditions météorologiques, de jour comme de nuit, à bord d’un avion monomoteur. Les étapes menant à cette certification consistent à passer un test d’information écrit ayant un score d’au moins 70 pour cent. La partie sensible du dernier examen comprend une rencontre avec les DPE qui testent les candidats sur les sujets de connaissances décrits dans les spécifications d’accréditation de l’aviateur, accompagnés d’un vol réel dans l’avion d’entraînement, dans lequel les candidats démontrent une capacité de vol remarquable. Les entraîneurs de vol certifieront que les étudiants satisfont à toutes les spécifications de la FAA avant de donner leur signe de tête pour l’examen sensible. « Bien qu’apprendre à voyager soit à couper le souffle pour la plupart, le processus a besoin d’une fonction qui commence par se structurer et rester structuré dès le premier jour. » Le parcours administratif d’un étudiant commence par « Devenir un aviateur individuel », voltige en avion une liste des exigences sur le site Web de l’entreprise – faa.gov. Il y a d’abord l’examen médical. Une liste des examinateurs de soins de santé approuvés se trouve sous le lien hypertexte « rechercher un AME » sur le site Web de la FAA. Les candidats doivent avoir au moins 16 ans pour tout avion piloté ou 14 pour un planeur, ainsi que parler couramment l’anglais. Ensuite, un programme de certificat d’étudiant-pilote commence sur le site du programme d’accréditation et de notation des aviateurs incorporés – icara.faa.gov – en cliquant sur « Nouveau pour l’IACRA ». N’oubliez pas de vérifier votre inscription. Une certification d’étudiant arrive dans 3 à 4 jours et doit être entre les mains avant que les élèves puissent jouer en solo, à peu près au moment où ils peuvent rencontrer des conditions telles que le coaching de manière significative de la composante 61 ou de la composante 141. La composante 61 indique généralement une formation avec un entraîneur indépendant à proximité ou peut-être une petite école de pilotage, tandis que la composante 141 est vraiment une atmosphère plus structurée avec des inspections et des montants très particuliers en cours de route.



L’addiction aux phobies


Lire des reportages au début de l’année 2021, c’était rencontrer chaque jour un déluge de chroniques, d’éditoriaux et d’articles de foi – autant d’articles de réflexion – autour des divers traumatismes mentaux propres au moment liminal, notre transition de la quarantaine, notre revenir à quelque chose que les experts insistent pour appeler « normal ». Nous lisons, par exemple, le stress du retour au bureau ; de laisser les animaux de compagnie et les membres de la famille dont nous nous sommes développés inséparables ; de reprendre les horreurs de la datation ; de compter en utilisant le Covid ’19’ (c’est-à-dire les livres que nous avons acquises); ainsi que l’accélération de la dépendance (environ 40 pour cent des buveurs ont déclaré que leur consommation d’alcool avait augmenté depuis le début de la pandémie). Un essai vidéo récemment disponible dans The New York Occasions intitulé « Dreading a Go back to « Normal » ? Vous n’êtes pas seul » raconte une réticence à revenir qui est, contre-intuitivement, généralisée. Une terreur supplémentaire ne sera pas discutée dans de telles analyses, peut-être parce qu’elle sape notre amour partagé en tant que réalistes possédants personnels capables de comprendre nos désirs et de modifier nos comportements. Ce que j’ai à l’esprit, c’est que beaucoup d’entre nous semblent ignorer de manière préventive COVID-19, pour s’inquiéter dès qu’il se retirera dans notre vue arrière combinée. Nous craignons une période après COVID-19 non seulement parce que son passage aura besoin des divers calculs et revenus énumérés ci-dessus. Nous l’inquiétons parce que nous sommes arrivés à apprécier ses privations. Sur les réseaux sociaux et en individuel, nous nous présentons de plus en plus, beaucoup d’entre nous, à percevoir le ralentissement économique – pas exactement du virus lui-même mais certainement des formations relationnelles et sociales qu’il a engendrées – comme une perte clairvoyante. Il convient de dire explicitement que cette anxiété est à la fois différente et, dans un sens, fondamentale par rapport aux autres stress de rentrée dans la liste ci-dessus. Dans ces récits, nous sommes décrits comme essentiellement enthousiastes à l’idée de revenir à la «normale» et préoccupés simplement par les hoquets qui accompagneront sans aucun doute la reprise du codage normal. Pourtant pour la plupart d’entre nous – et, ici, je parle d’une certaine sorte de libéral réflexif laïc, (plus qu’) informé – l’émancipation qui arrive semble sous heureuse. Depuis le déploiement massif du système de vaccination dans de nombreuses régions du monde développé, une partie supplémentaire, incomplètement réprimée, de nous a commencé à faire surface avec une plus grande véhémence. Cette partie semble bouleversée, pleine de ressentiment et, la plupart du temps, trahie à la prémisse du retour. Cette partie de nous semble inquiète non seulement des problèmes liés à la rentrée, mais également de la suppression réelle des conditions d’urgence et d’exception inattendues que nous avons nécessairement adoptées. A l’image de nombreux baromètres culturels aujourd’hui, celui-ci est le plus lisible sur internet, dans des enceintes où sont gérés les commentaires des consommateurs. Les parties des utilisateurs dans les journaux en ligne favorisés par les modérés, les libéraux et les gauchistes, ainsi que dans des lieux moins modérés tels que Reddit, ont commencé à inclure un type spécifique de discours contre tout contenu éditorial suggérant la fin de COVID- 19 est proche de. Comment pouvons-nous vraiment être sûrs, demandent-ils ? Comment pouvons-nous vraiment avoir confiance dans les conseils des installations américaines de gestion et de prévention des maladies (CDC) lorsqu’ils nous disent de laisser nos masques faciaux à la maison – en particulier lorsqu’ils continuent de transformer leur esprit et qu’ils se sont trompés auparavant ? Parmi ces informations qui semblent optimistes, les utilisateurs doivent apprendre leurs qualifications épidémiologiques. Pourrait-il être vraiment responsable, demandent-ils, que quelqu’un d’autre qu’un expert médical exige le retour ? Les pages d’opinion et les parties de commentaires de The Brand New York Occasions offrent un échantillon représentatif de cet effet comme n’importe quelle prise électrique. Fin février, le commentateur conservateur Ross Douthat a publié une chronique pour vos articles connue sous le nom de « L’urgence inattendue de Covid doit prendre fin ». Tout en reconnaissant la myriade de problèmes qui pourraient empêcher le retour à la normale au début de l’année et de l’été, il a néanmoins estimé que, contrairement aux jours les plus sombres sous Donald Trump : aujourd’hui, la situation est très différente. Et Joe Biden rendrait de grands services à notre pays en difficulté et gelé s’il suggérait, avec des preuves, qu’avec un travail en cours et une somme d’argent raisonnablement bonne, l’ère de l’urgence pourrait être révolue à partir du 4 juillet. La propre preuve de Douthat provient de données récentes du CDC. Comme on pouvait s’y attendre, la plupart des commentateurs du NYT ont trouvé beaucoup à haïr dans cet endroit. Probablement les articles les plus votés et recommandés par le NYT proviennent d’une personne appelée « B1indSqu1rrel », qui a écrit, avec une assurance punitive caractéristique de beaucoup d’autres : dites-moi, êtes-vous actuellement en train de fermer votre vision et de vous calmer parce que vous êtes presque à la maison du une longue poussée difficile, ou voudriez-vous attendre jusqu’à ce que vous gardiez votre voiture? Vous allongez-vous souvent sur le sol de votre maison simplement parce qu’il est presque l’heure de vous coucher, ou attendez-vous et entrez-vous dans le matelas ? Dans une autre remarque votée et suggérée, « DP » écrit : si vous souhaitez vraiment aider, qu’en est-il de dire aux gens de se masquer, de se nettoyer les doigts et de rester à l’écart des gens autant que possible jusqu’à ce que cette chose soit terminée, plutôt que d’essayer de revenir à la normale dès que les problèmes semblent commencer à changer ? Le début d’une reprise ne sera pas une reprise.