EVEIL


Publié le 10/05/2014 à 00:54:46
SCIENCE ET TECHNOLOGIE/ INTELLIGENCE ARTIFICIELLE : vers quel futur ?




1 - «Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme, écrit l'éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire».


 


2 - (…) « Le mélange de la robotique aux biotechnologies et nanotechnologies pourrait faire bien plus de dégâts que l'arme atomique. Et n'allez pas croire que seuls quelques ahuris pensent de la sorte, ils sont nombreux à le croire, y compris Jaan Tallinn qui a contribué à créer Skype et qui craint désormais que la puissance technologique fera bien plus de ravages que le cancer. Il a même créé avec Martin Rees, auteur notamment d'un ouvrage peu optimiste "Our Final Century" (Notre dernier siècle), un centre dédié à l'étude des risques liés à l'intelligence artificielle. »

 

  

 

-------------------------------

 

 

  

1 - Sous-estimer l’intelligence artificielle, «la plus grave erreur de notre histoire» pour Stephen Hawking

 

SCIENCE - Le scientifique britannique co-signe une tribune dans laquelle il alerte sur la potentielle menace pour l’humanité que constituerait l’invention de l’intelligence artificielle…

L'intelligence artificielle fait fantasmer et trembler. D'Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série «Battlestar Galactica», les possibles dangers pour l'homme d'une machine intelligente ont déjà été explorés dans d'innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l'intelligence artificielle, la science rejoint la science-fiction.

  

«Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»

«Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme, écrit l'éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire».

 

«On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu'on ne peut pas même comprendre», poursuit le scientifique. «L'incidence à court-terme de l'intelligence artificielle dépend de qui la contrôle, mais l'impact à long-terme dépend de la possibilité réelle de la contrôler.» Stephen Hawking déplore le manque de recherche sérieuse sur ces questions, «alors que nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité».

Par 20minutes.fr | 20minutes.fr 

 

https://fr.news.yahoo.com/estimer-l-intelligence-artificielle-grave-erreur-histoire-stephen-080648300.html


 


------------------------------

 

  

 

2 - L'intelligence artificielle va-t-elle mettre fin à l'humanité?

 

Faut-il craindre les risques liés à l'intelligence artificielle? Sommes-nous en train de développer des machines qui dépassent nos capacités de compréhension et serons-nous capables de contrôler indéfiniment ces mêmes machines? Les avancées technologiques pourraient-elles, à terme, provoquer la fin de l'humanité ?

 

La question n'est pas neuve et a souvent alimenté l'imaginaire des écrivains et autres cinéastes. Mais la science-fiction va-t-elle nous rattraper? Pour tenter de répondre à la question, le journaliste Matt Miller du Washington Post s'est inspiré de Ray Kurzweil qui fait valoir que ce qui distingue notre époque de toutes les précédentes est l'accélération du rythme du progrès technologique - via la numérisation de tout. Du coup, nous ne serions qu'à quelques décennies de la prise de pouvoir des ordinateurs sur l'humain, supposant qu'il sera alors possible de télécharger des versions numérisées de nos cerveaux pour qu'une certaine manifestation de notre être soit immortelle.

Il n'en fallait pas plus pour que certains y voient une véritable menace pour l'humanité. Pour eux, le mélange de la robotique aux biotechnologies et nanotechnologies pourrait faire bien plus de dégâts que l'arme atomique. Et n'allez pas croire que seuls quelques ahuris pensent de la sorte, ils sont nombreux à le croire, y compris Jaan Tallinn qui a contribué à créer Skype et qui craint désormais que la puissance technologique fera bien plus de ravages que le cancer. Il a même créé avec Martin Rees, auteur notamment d'un ouvrage peu optimiste "Our Final Century" (Notre dernier siècle), un centre dédié à l'étude des risques liés à l'intelligence artificielle.

Matt Miler s'appuie ensuite sur la position de James Barrat et de son livre "Our Final Invention: Artificial Intelligence and the End of the Human Era" (Notre invention finale: l'intelligence artificielle et la fin de l'ère humaine), qui fait le constat que de nombreux spécialistes sont au courant des risques potentiels d'un emballement incontrôlable de l'intelligence artificielle, mais que personne n'en parle. Pourquoi? Tout le monde se baserait sur le fait que puisque rien de terrible ne s'est produit jusqu'à présent, il ne devrait probablement rien se produire à l'avenir.

Ainsi, de nombreux chercheurs préfèrent se dire que nous nous limiterons à construire "une intelligence artificielle amicale avec des systèmes programmés sur base de certaines valeurs et avec le respect de l'être humain". Mais, Matt Miler, d'ajouter: "Une fois que nos machines seront des millions ou des milliards de fois plus intelligentes que nous ne le sommes (en termes de puissance de traitement et des capacités que cela induit), comment empêcher ces machines de nous considérer autrement que comme des fourmis ou des animaux de compagnie?".

Sans oublier que les applications militaires de cette intelligence artificielle pourraient bien provoquer une nouvelle course aux armements, bien plus dangereuse que celles développées jusqu'à présent. Des dromes autonomes seraient ainsi déjà capables de décider de l'utilisation de la force et ce, sans intervention humaine. Le président Obama lui-même devrait lancer d'ici peu une commission présidentielle sur les dangers de l'intelligence artificielle afin d'engendrer un débat national sur la question.

Alors sans danger les avancées technologiques?

 

Par Caroline Albert/ 19/12/13

 

http://www.7sur7.be/7s7/fr/1506/Sciences/article/detail/1760922/2013/12/19/L-intelligence-artificielle-va-t-elle-mettre-fin-a-l-humanite.dhtml


 


------------------------------

 

 

 

3 - Intelligence artificielle : les machines sont-elles nos amies ?

 

Au centre de nombreux débats depuis le milieu du 20e siècle et largement exploré par le cinéma américain ces 30 dernières années, le thème de l'intelligence artificielle est omniprésent lorsque l'on évoque l'avenir de l'humanité.

 

Les définitions de l'intelligence artificielle varient, mais prenons une des plus simples, que vous pouvez trouver dans l'encyclopédie Larousse en ligne : "Ensemble de théories et de techniques mises en oeuvre en vue de réaliser des machines capables de simuler l'intelligence humaine". Cette interprétation, quoique tout à fait valide, parait toutefois obsolète au vu des énormes avancées réalisées dans ce domaine au jour d'aujourd'hui. En effet, la victoire du superordinateur Deep Blue face au grand maître d'échecs Gary Kasparov en 1996 fut tout sauf théorique.



 


Des machines conscientes ?

Le point d'interrogation à ce jour, c'est la place que pourraient occuper ces machines 'pensantes' dans notre société de demain. Dans cette optique, Hollywood ne manque pas d'idées pour imaginer cet avenir plus si lointain que ça : au fil des superproductions réalisées ces dernières décennies, on a ainsi pu voir des robots qui faisaient des courses (I, Robot), le ménage (L'Homme Bicentenaire), la conversation (Her) ou, dans un autre registre, tentaient de réduire la race humaine à néant (Terminator).

Eh oui, la notion d' "intelligence" artificielle suggère une capacité de prise de décision, ce qui tendrait à rendre imprévisible son mode de rationalisation. D'un point de vue sociétal, l'émergence de ces entités aurait également un impact non-négligeable sur les humains, puisque de nombreux emplois pourraient être créés à tous les niveaux : conception, fabrication, entretien, formation... Le débat reste grand ouvert.

 

lundi, 21 avril 2014

 

http://lemondeintemporel.blogs.lalibre.be/archive/2014/04/21/intelligence-artificielle-les-machines-sont-elles-nos-amies-1128710.html


 


--------------------------------

 

 

  

4 - Que se passera-t-il le jour où les ordinateurs seront plus intelligents que les humains ?

  

La lecture de la semaine, il s’agit d’un article extrait du numéro d’avril du magazine The Walrus, mensuel canadien de Toronto. On le doit à Alex Hutchinson et il s’intitule “Déficit d’intelligence : que se passera-t-il le jour où les ordinateurs seront plus intelligents que les humains ?”

Un jour dans le siècle qui vient – et peut-être plus tôt que vous ne croyez, commence Hutchinson – des chercheurs arriveront sans doute à créer une intelligence artificielle plus performante que la nôtre. Ce qui adviendra ensuite, c’est la question que tout le monde se pose – et nous ne sommes tout simplement pas assez intelligents pour comprendre, ou seulement prédire, ce qu’une intelligence surhumaine choisira de faire. Mais il y a une chance raisonnable pour que cette intelligence artificielle éradique l’humanité, soit par pure malveillance, soit dans une tentative maladroite de se rendre utile. La Fondation Lifeboat de Minden, dans le Nevada, cherche à repousser cette possible calamité en développant une “Intelligence artificielle amicale”.

 

L’auteur rappelle que Vernor Vinge, le mathématicien et informaticien américain, avait nommé ce moment de l’histoire la “Singularité technologique” et qu’il l’imaginait advenir avant 2030. Ray Kurzweil, autre penseur bien connu de la Singularité, estime qu’elle se produira en 2045. Quant à l’auteur de science-fiction canadien Robert J. Sawyer, l’auteur de la trilogie WWW (Wake, Watch, Wonder, du nom des trois volumes de la série consacrée à la Singularité), il la voit arriver à l’automne 2012.

C’est à ce dernier que s’intéresse particulièrement cet article, car Sawyer, non content d’être un auteur de science-fiction à succès, siège à la Fondation Lifeboat. Et comme Sawyer est connu pour un travail de romancier très documenté, ça rend les objectifs de la Fondation Lifeboat moins farfelus qu’il n’y paraît.

Alex Hutchinson résume ensuite les intrigues de la trilogie WWW de Sawyer (dont seulement les deux premiers tomes – L’éveil suivit de veille -sont disponibles en français dans la célèbre collection de SF “Ailleurs et Demain” de Robert Laffont), qui reposent principalement sur l’idée qu’une conscience émergerait spontanément des réseaux, d’une manière que certains chercheurs estiment plausible d’ailleurs. La trilogie pose deux questions qui sont reliées, mais néanmoins distinctes. Si l’émergence d’une conscience dans les réseaux advenait : que feraient les humains ? Et que devraient-ils faire ?

 

En principe, l’avènement d’une intelligence artificielle capable de diriger le monde serait plutôt une bonne nouvelle. Le mathématicien britannique Irving John Good a écrit en 1965 dans un papier qui a fait date : “La première machine ultra-intelligente sera la dernière invention de l’homme”. La raison qu’il avance est la suivante : toute machine plus intelligente que nous sera aussi plus capable que nous de construire une intelligence artificielle, elle sera donc en mesure d’améliorer toute seule ses propres capacités, dans une sorte de processus de perfectionnement auto-généré. Good a appelé ce phénomène intelligence explosion, “l’explosion intelligente”, Vernor Vinge lui a donné un autre nom hard take off, le “décollage difficile”. En un court laps de temps, toute super intelligence artificielle évoluerait d’un état à peine supérieur au nôtre à un état très largement supérieur – et l’équilibre des pouvoirs entre les hommes et leurs anciens outils basculerait tout aussi vite.

 

Et on peut tout à fait voir là une menace pour l’humanité. Sawyer a écrit un jour dans un article : “si nous fabriquons des machines plus intelligentes que nous, pourquoi accepteraient-elles d’être nos esclaves ? [...] Les ordinateurs doués de pensée sont une vraie menace pour la perpétuation de notre espèce.”


 


Cela dit, il semble assez simple de prévenir cette menace, par exemple en appliquant les trois règles de la Robotique, qu’Isaac Asimov a édictées en 1942 :

1. Un robot ne peut blesser un être humain ni, restant passif, laisser cet être humain exposé au danger.

2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi.

3. Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première Loi ou la Seconde.

 

Sauf qu’appliquer ces règles pose tout un tas de problèmes qu’Asimov a lui-même relevés. Un robot peut-il nuire à un être humain si cela permet de ne pas nuire à un grand nombre d’êtres humains ? Si oui, selon quel critère doit-il l’évaluer ? Ou encore – comme Jack Williamson, un autre auteur de science-fiction l’a proposé dans sa série Les Humanoïdes – que faire si des robots programmés pour prémunir les hommes de toute destruction décidaient d’emprisonner toute l’humanité parce que nombre d’activités quotidiennes portent en elles le risque de la destruction ?
La Fondation Lifeboat divise les menaces potentielles en trois grandes catégories.

La première est une intelligence artificielle délibérément programmée pour faire le mal, sous les ordres d’un créateur malfaisant. Un danger qui est réel, mais pas très différent de tous ceux qui accompagnent beaucoup d’autres formes de technologies avancées.

 

La deuxième catégorie est une intelligence artificielle dévoyée qui se retournerait contre ses créateurs, un scénario courant dans la science-fiction (comme HAL 9000 dans 2001, L’Odyssée de l’espace). Mais les analyses de Lifeboat estiment cette hypothèse assez improbable, car elle supposerait qu’une intelligence artificielle serait lestée de tout le bagage psychologique propre à l’humanité. Or, l’agressivité, la jalousie, la préservation de soi sont toutes des propriétés qui se sont forgées dans le creuset de l’évolution, et ne seraient pas les caractéristiques d’une intelligence artificielle, à moins qu’on ne les ait délibérément programmées.

Mais il existe une troisième catégorie de menace, moins évidente, et plus difficile à rejeter : une super intelligence artificielle qui est bien intentionnée, mais nous balaie par inadvertance, comme un chiot trop vite grandi renverse une table d’un coup de queue enthousiaste. La Fondation Lifeboat donne un exemple simple : un ordinateur programmé pour éradiquer la malaria qui accomplit sa mission en supprimant tous les mammifères. Et on entre là dans un débat qui agite bien au-delà de Lifeboat. Car cette question est bien compliquée, nous dit Hutchinson.

 

D’abord, une intelligence artificielle consciente d’elle-même est qualitativement différente d’un ordinateur le plus puissant soit-il. On peut demander à Google Maps le meilleur trajet pour aller chez Grand-Maman, et nous avons des GPS qui prennent en compte le trafic et le prix des péages. Mais même si les ordinateurs parviennent de mieux en mieux à nous dire comment faire les choses, et même s’il faut les faire, ils demeurent incapables de formuler leur propre jugement sur le fait de savoir si faire ces choses est bien ou mal. Ceux qui craignent la Singularité avancent que nous sommes incapables de programmer des ordinateurs avec des valeurs humaines pour la simple raison que les valeurs humaines ne peuvent pas se réduire à un algorithme.

 

Tout cela est connu sous le nom de “problème de l’intelligence artificielle amicale”. Savoir s’il est insoluble, s’il est compliqué, mais soluble, s’il relève de la pure paranoïa, tout cela constitue un débat récurrent et acharné au sein de la communauté des chercheurs en intelligence artificielle. Mais ce débat sera caduc si les développeurs de la première intelligence artificielle de niveau humain ne font pas l’effort d’incorporer des règles semblables à celles d’Asimov dans leurs créations. Etant donné qu’aujourd’hui, les machines les plus avancées naissent des laboratoires privés et militaires, il n’est pas certain que ce soit le cas.

 

Par Xavier de la Porte/ 18/04/11

 

http://www.internetactu.net/2011/04/18/que-se-passera-t-il-le-jour-ou-les-ordinateurs-seront-plus-intelligents-que-les-humains/


 kakuhet.bmp


--------------------------------

 

 

 

5 - Stephen Hawking nous déconseille de contacter nos voisins extra-terrestres

 

Le célèbre physicien britannique fait partie des chercheurs les plus connus, autant pour ses travaux de recherche que pour ses ouvrages de vulgarisation scientifique. Ce grand amateur de science-fiction n’hésite pas non plus à mélanger sciences et SF pour mieux appuyer sa pédagogie. Aussi lorsqu’il déclare, dans un docu-fiction prochainement diffusé par la chaîne Discovery Channel, que les extra-terrestres existent très probablement, nous avons affaire à un exercice d’exobiologie spéculative plutôt qu’à un revirement charlatant.

 

Hawking parie que la vie est certainement présente sur d’autres planètes, mais sous des formes assez modestes : des micro-organismes, des formes végétales ou fongiques, voire des animaux. Bien entendu, toutes ces formes de vie sont imaginées par analogie avec la biosphère terrestre. Ceux parmi vous qui pourront regarder Discovery Channel le 9 mai prochain pourront voir si ce docu-fiction discute également de formes alternatives d’exo-biochimie. En attendant, une phrase d’Hawking prononcée dans ce documentaire a retenu toute mon attention. Pronostiquant l’existence d’autres biosphères, Hawking imagine que des formes de vie puissent être organisées en civilisations avancées, et craint même que certaines d’entre-elles soient « des nomades cherchant à conquérir et à coloniser » de nouvelles planètes. Aussi se montre-t-il très critique avec les programmes cherchant à adresser des messages à d’éventuels E.T., estimant que communiquer avec eux pourrait se révéler « trop risqué » .

  

Souvenons-nous à notre échelle de la découverte du Nouveau Monde par les Européens. Technologiquement plus avancés, avides des ressources de ce continent, les colons n’ont pas hésité à massacrer les autochtones indiens afin d’occuper leurs territoires. Le choc des civilisations a également été destructeur pour les civilisations précolombiennes et les tribus indiennes. Hawking craint qu’un tel scénario se reproduise en cas de visite extra-terrestre, mais avec une différence technologique encore plus accrue.

 

Pour mieux comprendre ce qu’Hawking veut dire, il faut utiliser un classement spéculatif astronomique fort bien connu des amateurs de science-fiction : l’échelle de Kardashev. D’après cette échelle, les civilisations pourraient être classées en trois catégories basées sur la quantité d’énergie  dont dispose une civilisation donnée, selon une progression exponentielle. Les auteurs de science-fiction en ont rajouté quatre autres décrivant leurs univers de space-opéra. Le type I est capable d’utiliser toute l’énergie de sa planète. Le type II collecte l’énergie de son étoile centrale. Le type III puise son énergie de la galaxie elle-même. Actuellement, notre civilisation atteint l’indice 0.7 (1013 W). Nous ne sommes encore qu’une civilisation de type 0 ! Et selon le physicien Michio Kaku, nous n’atteindrons le type I pas avant 2200 au plus tôt, si la recherche technologique actuelle est toujours favorisée dans l’avenir.


 


Une civilisation extra-terrestre capable de voyager d’étoile en étoile serait au moins de type I ou II. Plus elle dispose d’énergie, plus elle devient capable de visiter notre planète et d’emporter avec elle une technologie efficace. Aussi le choc technologique entre une civilisation alien et la nôtre serait corrélé à la différence d’échelle Kardashev. Sans oublier le choc socio-culturel inévitable, auquel la science-fiction nous prépare plus ou moins bien.

   

Mais que viendraient faire des extra-terrestres sur Terre ? Nous anéantir ? Coloniser la planète ? Y faire un pique-nique ? Pour que des aliens s’intéressent à notre petit système solaire, il nous faut raisonner en termes de niche écologique. Lorsqu’une espèce cherche à s’établir dans un écosystème, elle va s’intéresser aux espaces possédant les paramètres physico-chimiques et biologiques nécessaires à sa survie. Dans le cas d’extra-terrestres, il est tout à fait possible d’imaginer que notre biosphère ne soit pas adaptée à sa physiologie, ou que nos conditions géologiques ne soient pas forcément très intéressantes pour eux.

 

Reprenons l’échelle de Kardashev. Nos visiteurs extra-terrestres seraient issus d’une civilisation de type I ou II minimum. Leur premier objectif ne serait-il pas alors pour eux de garantir leur billet-retour ? Dans ce cas, la source d’énergie majeure de notre système reste le soleil. Nos visiteurs se placeraient en orbite autour de notre étoile et chercheraient à l’exploiter. Peut-être feraient-ils une visite sur Terre, mais quel intérêt auraient-ils à interférer avec une civilisation de type 0,7 incapable de les stopper ? Imaginons maintenant que leurs ressources énergétiques soient d’origine planétaire. Qui nous dit que notre planète serait la plus intéressante à exploiter ? Il est même possible d’imaginer que les générateurs les plus énergétiques ou matériaux utilisés par ces extra-terrestres ne soient pas encore connus de nos scientifiques. Peut-être sommes-nous donc incapables de définir les ressources utiles à des visiteurs extra-terrestres ! Là encore, mettre la Terre et notre civilisation au centre de notre système solaire n’est pas forcément la meilleure approche du problème.

 

Alors pourquoi iraient-ils sur Terre ? Notre planète accueille une biosphère. La condition biologique serait probablement l’argument premier. Si les extra-terrestres ont une biochimie très proche de la nôtre, la Terre devient pour eux une niche écologique de choix. Tout comme les marins d’autrefois laissaient vivres et équipements sur des îles perdues, nos voyageurs extra-terrestres feraient bien de notre planète un refuge spatial. Dans ce cas, il est possible qu’exterminer une civilisation de type 0,7 soit un détail pour eux, ou bien que nous ne représentions pas plus de problèmes qu’une fourmilière sur un terrain à bâtir.

  

Si notre petit cas intéresse les extra-terrestres, quel sort nous réserveraient-ils ? Nous pouvons imaginer que comme toute matière organique de la biosphère, nous soyons un aliment métabolisable pour eux, et que E.T. fasse très peu cas de notre exception culturelle. Peut-être seraient-ils esclavagistes. Travailler sur de dangereux générateurs énergétiques aliens peut se révéler mortel à court terme, et ces E.T. préféreraient utiliser des robots ou des formes de vie intelligentes pour effectuer les opérations de routine. Ou bien trouveraient-ils sur Terre des conditions autres : exotiques (les charmes des couchers d’étoile de type G face à un océan saturé en NaCl), culturels (encore une planète habitée étudiée par l’Université de Zorblurb Prime), gastronomiques (sushis de baleines, d’humains, de vautours fauves ?), ludiques (un Koh Lantha sur des planètes primitives) ?


 


Quoi qu’il en soit, nous serions dans tous les cas de figure les grands perdants de cette rencontre. Avec notre civilisation de type 0,7 plutôt archaïque, nous serions comme les indiens face à Colomb. Incapables de comprendre si ces êtres blancs sur leurs grands vaisseaux de bois sont des hommes ou des dieux, et si leurs armes à feu sont magiques ou technologiques. Alors si nous avons plus à perdre qu’à gagner de cette rencontre du troisième type, nous pouvons donc conclure, comme Hawking, que la plus grande sagesse dont puisse faire preuve une civilisation de type 0,7 reste encore de se faire la plus discrète possible.

 

http://www.traqueur-stellaire.net/2010/04/stephen-hawking-nous-deconseille-de-contacter-nos-voisins-extra-terrestres/


 


----------------------------------



 

 

 

 






Avis des internautes

Articles recommandés

» AFRIQUE/ POLITIQUE/ ECONOMIE/ MAUVAISE GOUVERNANCE : le réveil tardif des juges et des militaires contre les crimes politiques, économiques et l’arbitraire

» ASIE/ DEFENSE ET SECURITE/ ECONOMIE : persistance des défis économiques et sécuritaires, risques de guerre majeure

» MONDE/ NOBEL 2017 : les lauréats du Prix Nobel 2017

» MONDE/ POLITIQUE/ GOUVERNANCE : raccourcis démocratiques, violences antidémocratiques et clairvoyances économiques

» AFRIQUE/ FONDS DORMANTS/ FONDS ILLICITES/ CORRUPTION ET FRAUDES : ces capitaux qui ne profitent pas au continent

» AFRIQUE/ RENOUVEAU : perspectives politiques, perspectives économique et sociale

» FRANCE/ TERRITOIRES/ Ex-Colonies : attentes de renouveau, de leadership éclairé et de développement véritable

» AFRIQUE/ ECONOMIE/ POLITIQUE : réformes importantes, gouvernance et perspectives

» SANTE/ ALIMENTATION ET HYGIENE/ ALIMENTS DANGEREUX : ces aliments qui ne sont pas des nutriments

» MONDE/ DROGUES/ CRIMES ET NARCOTRAFIC : comment mettre fin à la puissance des cartels et des criminels de la drogue ?

» AFRIQUE/ LIBYE/ POLITIQUE/ ECONOMIE/ TERRORISME : une puissance politique et économique africaine incapable de surmonter ses crises (où sont-ils passés ces démocrates qui ont déstabilisé durablement la Libye ?)

» MONDE/ SPORT/ BOXE/ MUHAMMAD ALI : décès d’un champion de la boxe et d’une légende du sport (j’ai aimé la boxe avec Muhammad Ali, j’ai cessé de m’intéresser à la boxe après Ali)

» MONDE / ALLEMAGNE/ GENOCIDE ARMENIEN : la nouvelle Allemagne reconnait le génocide arménien (condamnation du passé hitlérien de l’ancienne Turquie/Empire ottoman)

» MONDE/ USA/ ARMES A FEU ET VIOLENCES/ TUERIES MASSIVES D’INNOCENTS : Barack Obama présente ses mesures contre les armes à feu

» AFRIQUE/ BURKINA FASO/ THOMAS SANKARA : le Burkina Faso redécouvre son ancien leader, 28 ans après (mieux vaut tard que jamais)

» MONDE/ SYRIE/ GUERRE CONTRE LE TERRORISME : l’aide militaire décisive de la Russie à l'Etat syrien va contribuer à imposer la paix

» MONDE/ RUSSIE/ CONFLIT SYRIEN : le Président Vladimir Poutine à propos du conflit syrien et du monde multipolaire actuel

» AFRIQUE/ TCHAD : Le Tchad exécute 10 membres présumés de Boko Haram, dès le lendemain de leur condamnation

» AFRIQUE/BURUNDI/ VIOLENCES POLITIQUES/ CRISE ET DESTABILISATION : savoir mener les bons combats qui garantissent la démocratie, la paix et la stabilité du pays

» AFRIQUE/ OBSTACLES AU DEVELOPPEMENT : Corruption et développement en Afrique…

» EVEIL (Page noire d’Afrique)

» MONDE/ UE-FRANCE/ TERRORISME : les ennemis de l’islam ont attaqué la liberté d’expression et tué une douzaine de personnes au nom de leur conception religieuse haineuse

» AFRIQUE/ NIGERIA/ DEVELOPPEMENT LOCAL : Le président Alassane Ouattara à l’inauguration du stade international d’Akwa Ibom à Uyo (Nigéria)

» Etat fédéral et Etat unitaire en Afrique : forces et faiblesses en matière de développement

» AFRIQUE/ ETAT ET DEVELOPPEMENT : quel type d’Etat pour impulser efficacement le développement ?

» AFRIQUE/ POLLUTION ET ENVIRONNEMENT/ SANTE PUBLIQUE : crise environnementale et menaces

» AFRIQUE/ COOPERATION ET DEVELOPPEMENT : le sous-développement socioéconomique et scientifique et l’extrême pauvreté peuvent perdre l’Afrique

» AFRIQUE/ AGRICULTURE/ PAIX ET SECURITE : l’émergence d’un continent freinée par des guerres nouvelles et des campagnes orchestrées d’insécurité

» SCIENCE/ MEDECINE/ ALERTE MEDICALE : les maladies cardio-vasculaires

» SYRIE/ UKRAINE/ REBELLION ET DEMOCRATIE : de nouveaux présidents élus dans des pays durablement déstabilisés par des forces démocratiques anachroniques

» AFRIQUE/ NIGERIA/ PREMIERE PUISSANCE ECONOMIQUE ET TERRORISME : regain d’activités terroristes intempestives et barbares

» AFRIQUE/ POLITIQUE ET VIOLENCES : ces guerres sales qui détruisent l’Afrique

» INTOLERANCES POLITIQUES ET RELIGIEUSES : peut-on mettre fin à la haine dans les rapports entre les humains?

» APARTHEID : L'apartheid vaincu par l’Afrique du Sud et la communauté internationale


Haut de page