Google devra répondre en justice de sa politique de géolocalisation. Un utilisateur californien a en effet porté plainte contre le géant américain de fourniture de services technologiques, lui reprochant notamment de « voler » ses données et de continuer à détecter la géolocalisation de son smartphone même lorsque les paramètres d’historique de localisation sont désactivés.
« Google a expressément affirmé aux utilisateurs de son système d’exploitation et de ses applications que l’activation de certains paramètres empêchait le suivi des géolocalisations des utilisateurs. Cette déclaration est fausse.», dénonce le plaignant, selon des propos rapportés par Technologie Média.
Cette plainte intervient dans un contexte marqué par la publication le 13 août dernier d’une enquête d’Associated Press qui a révélé que le géant de la Silicon Valley, « continue de recueillir les données de géolocalisation d’un smartphone même si un utilisateur désactive les paramètres d’historique de localisation », précise Le Figaro. Une attitude interprétée par le plaignant comme une atteinte à sa vie privée ainsi qu’à celle des millions d’autres utilisateurs qu’enregistre Google.
L'organisation Internet Association qui compte parmi ses membres des géants comme Google, Facebook ou Microsoft, va participer aux poursuites contre la fin de la "neutralité du net".
La Commission fédérale des communications (FCC), régulateur américain du secteur, s'est, en effet, prononcée mi-décembre pour la fin de ce principe qui oblige les fournisseurs d'accès internet (FAI) à traiter tous les contenus en ligne de la même manière. Sans donner de détail, Internet Association a laissé entendre qu'elle interviendrait dans les recours que plusieurs procureurs devraient lancer prochainement, notamment dans les Etats de Washington et de New York.
Michael Beckerman, président de l'organisation dont Amazon est également membre, a estimé que la décision de la FCC "va à l'encontre de la volonté d'une majorité bipartisane d'Américains et ne parvient pas à préserver un internet libre et ouvert".
"Avec les groupes qui sont nos adhérents, (l'Association) continuera à faire pression pour rétablir par voie législative des protections fortes et applicables pour la neutralité du net", a-t-il ajouté. Les partisans de la "neutralité" craignent que les FAI soient tentés de faire payer plus cher pour un débit plus rapide ou bloquent certains services leur faisant concurrence, comme la vidéo à la demande, la téléphonie par internet ou les moteurs de recherche. Le débat sur le sujet, très vif, dure depuis une dizaine d'années aux Etats-Unis. A ce titre, la FCC a estimé que le principe de neutralité faisait obstacle aux investissements. Avec cette décision, "nous restaurons la liberté d'internet" et "nous aidons les consommateurs et la concurrence", avait déclaré Ajit Pai, son président. Aucun recours ne pouvait être déposé jusqu'à ce que la directive de la commission soit publiée, ce qui est le cas depuis cette semaine. Des parlementaires ont par ailleurs engagé des initiatives pour invalider la décision de la FCC.
Sous les ailes de la navette spatiale Discovery, le vice-président des États-Unis, Mike Pence, a annoncé que l’Amérique repousserait toujours plus loin les frontières de l’exploration spatiale par l’Homme. Il a tenu ces propos lors de la première réunion du Conseil national de l’espace, maintenant reconstitué.
« Nous enverrons de nouveau des astronautes américains sur la Lune », a-t-il affirmé, le 5 octobre, au centre Udvar-Hazy, en Virginie. Le Centre relève du Musée national de l’air et de l’espace de la Smithsonian Institution. « Non seulement pour qu’ils y laissent les empreintes de leurs pas et des drapeaux, mais aussi pour qu’ils construisent la fondation dont on a besoin pour envoyer des Américains sur Mars et au-delà ».
Le vice-président américain dirige le Conseil national de l’espace qui coordonne la politique des États-Unis dans le domaine de l’espace. Lors de la première réunion du conseil depuis près de 25 ans, Mike Pence a rassemblé des responsables des agences spatiales et ceux des secteurs connexes. Parmi les participants figuraient notamment des militaires américains de haut rang et des personnalités du secteur privé.
L’Amérique « tournera son regard au-delà des enceintes gouvernementales pour aller à la recherche de perspectives et de savoir-faire », a écrit le vice-président dans une tribune d’opinion publiée, le 5 octobre, dans le Wall Street Journal. Des représentants de plusieurs sociétés, y compris SpaceX, Lockheed Martin et Sierra Nevada, ont déclaré que leurs entreprises étaient prêtes à donner le coup d’envoi à une nouvelle ère de voyages dans l’espace. Ils ont présenté les grandes lignes des nouveaux engins spatiaux et des nouvelles capacités qui contribueront aux futures missions des États-Unis sur la Lune et sur Mars.
Le vice-président Mike Pence et plusieurs membres du Cabinet cherchent à recueillir des opinions sur les règlements qui entravent les possibilités de lancement d’engins spatiaux et sur les meilleurs moyens de libérer le potentiel de l’innovation.
Il faudra peut-être attendre encore quelques années, mais un jour les automobilistes pourront aller à la station-service et faire le plein… d’électrolytes chargés.
Une nouvelle batterie révolutionnaire conçue à l’université Purdue, dans l’Indiana, pourrait changer la manière de recharger les véhicules électriques et améliorer la sécurité énergétique mondiale.
Il s’agit d’une batterie à flux, une sorte de batterie rechargeable composée de produits chimiques dissous dans des liquides chargés positivement ou négativement. Ces liquides sont généralement séparés par une membrane, souvent en métal.
La nouvelle batterie de Purdue n’a pas de membrane. Et c’est un avantage. Les membranes sont sujettes à la corrosion, ce qui limite la durée de vie de la batterie et peut causer des problèmes de fonctionnement.
Comment fonctionne l’IFbattery, la batterie conçue par Purdue ? IF est l’acronyme de « immiscible fluid »
(liquide immiscible). Autrement dit, les éléments de la batterie (les liquides) ne se mélangent pas, tout comme l’eau et l’huile ne peuvent pas se mélanger. C’est un simple cocktail d’éthanol et d’eau, auquel on a ajouté du sel. Le sel rend les solvants positifs et négatifs non miscibles, créant une barrière naturelle.
« C’est une méthode qui sort de l’ordinaire », explique le chef d’équipe John Cushman de Purdue. Cette batterie à flux « sans membrane » est la première en son genre.
L’IFbattery a beaucoup d’avantages. Contrairement aux batteries au lithium-ion utilisées pour recharger les téléphones portables et les voitures électriques ou pour stocker l’électricité des réseaux, l’IFbattery ne pose aucun risque d’incendie ou d’explosion. C’est une batterie sûre. En outre, son coût de fabrication est beaucoup moins élevé, car elle est composée de matériels largement disponibles. Elle n’a pas besoin d’être rechargée et ne pollue pas l’environnement avec des gaz à effet de serre ou en devenant un déchet toxique. Tous ses éléments sont biodégradables.
En plus, la batterie a une « super capacité » de charge, ce qui veut dire qu’elle peut stocker une grande quantité d’électricité. « Ça permet d’avoir du courant beaucoup plus fort, beaucoup plus de puissance qu’avec une batterie normale », affirme John Cushman. Elle est donc utilisable dans les véhicules électriques.
« On n’a jamais besoin de la brancher », explique-t-il. Les électrolytes utilisés – qui sont rechargeables – pourront être déposés à une station-service dans une citerne de stockage temporaire en attendant d’être rechargés. Ensuite, on remplit le réservoir [du véhicule] avec des électrolytes chargés et on peut reprendre la route. Selon John Cushman, un réservoir d’électrolytes devrait permettre à un véhicule de parcourir entre 400 et 480 km, plus ou moins la même autonomie que la voiture électrique fabriquée par Tesla.
Le projet n’a pas encore été testé sur route, mais, si tout se passe bien, il sortira des laboratoires et sera sur les routes, peut-être d’ici une dizaine d’années. Les chercheurs sont en quête d’investisseurs pour atteindre ce but.
« La partie scientifique est pour ainsi dire terminée. Ce qu’il nous faut maintenant, ce sont des ingénieurs », indique le chef de l’équipe de Purdue. Des ingénieurs en mécanique ou en chimie vont prendre la relève et mettre au point de nouveaux véhicules ou des kits adaptateurs pour les véhicules électriques actuels. Selon lui, il faudra probablement environ deux ans avant d’avoir un modèle opérationnel.
Pour un cycle entièrement écologique, les stations-service pourraient faire recharger les électrolytes de l’IFbattery par des parcs solaires ou éoliens.
« Pas besoin de rester à attendre pendant deux heures pour la recharger. C’est ça qui est génial avec cette batterie », conclut John Cushman.
Les synucléinopathies, ou pathologies de l’alpha-synucléine, sont des maladies cérébrales neurodégénératives liées à l’accumulation anormale d’agrégats de protéines alpha-synucléines dans les neurones et les cellules environnantes, les cellules gliales. Les plus connues : la maladie de Parkinson, qui concerne 1 % des personnes de plus de 65 ans (100 000 à 120 000 malades en France), la démence à corps de Lewy et l’atrophie multisystématisée. Dans la maladie de Parkinson, les agrégats provoquent la mort de certains neurones, ce qui explique les symptômes moteurs : tremblements, rigidité des muscles, lenteur des mouvements. Aucun traitement, qui empêcherait la mort neuronale ou l’agrégation de la protéine pathologique, n’existe à ce jour, même si plusieurs pistes sont envisagées. Rita Raisman-Vozari, Julia Sepulveda-Diaz et leurs collègues, de l’Institut du cerveau et de la moelle épinière (ICM) à Paris, viennent de montrer qu’un antibiotique classique utilisé depuis plus d’un demi-siècle pourrait éviter la mort des neurones en modifiant l’agrégation de l’alpha-synucléine.
L’alpha-synucléine est une protéine présente dans toutes les cellules, mais dont la fonction « normale » reste méconnue. En revanche, pour des raisons également inconnues, dans certaines conditions, elle se modifie et s’agrège pour former des « oligomères », des associations de plusieurs protéines, puis des « fibrilles », des enchevêtrements de plusieurs oligomères. Les fibrilles provoquent alors une activation du système immunitaire et la libération de facteurs inflammatoires, qui perturbent l’activité des mitochondries (les centrales énergétiques des cellules). Des molécules oxydées toxiques apparaissent alors – ce que l’on nomme le stress oxydatif –, qui, à leur tour, amplifient le phénomène d’agrégation tout en abîmant la membrane des cellules. Tous ces facteurs contribuent à la mort des neurones.
Les chercheurs tentent donc d’agir à différents niveaux de ce processus : bloquer l'inflammation, empêcher l’agrégation de l’alpha-synucléine, limiter le stress oxydatif, rétablir l’activité des mitochondries. Mais la plupart des molécules efficaces in vitro ne protègent pas les neurones in vivo, chez l’animal ou même chez l’homme. Sauf une : la doxycycline, un antibiotique de la famille des tétracyclines, qui tue les bactéries, mais qui a aussi un effet protecteur chez les animaux développant une maladie de Parkinson.
Comment agit cet antibiotique ? Des études antérieures ont montré que la doxycycline a des propriétés anti-inflammatoires et anti-oxydantes, qui ne sont toutefois pas suffisantes pour expliquer la protection neuronale. Les chercheurs de l’ICM ont donc supposé qu’elle avait une autre cible. En faisant incuber de la doxycycline avec des protéines alpha-synucléines et en utilisant des techniques d’observation moléculaire comme la microscopie électronique à transmission et la spectroscopie par résonance magnétique, ils ont constaté que les oligomères ne se transformaient jamais en fibrilles et que l’antibiotique se liait à des sites spécifiques des oligomères et bloquait ainsi leur agrégation : ils adoptent une structure dite en feuillet bêta, différente de celle formée sans antibiotique et incapable de s’agréger en fibrilles. Puis, en plaçant des cellules en contact d’alpha-synucléine et de doxycycline, les chercheurs ont montré qu'elles ne mourraient plus, leur membrane n’étant pas détruite.
Ainsi, la doxycycline remodèle les oligomères d’alpha-synucléines en une forme non toxique. Mais elle ne se fixe pas sur les monomères, les protéines non associées, qui ont probablement des fonctions importantes dans les conditions normales. La doxycycline traverse la barrière protégeant le cerveau et a également des actions anti-inflammatoires et anti-oxydantes. Et ce, dès une concentration de 20 à 40 milligrammes par jour, bien inférieure à celle ayant un effet antibiotique. Il est donc envisageable de l’administrer chez l’homme. Un essai clinique sera prochainement lancé pour évaluer son efficacité chez les patients atteints d’une synucléinopathie.
Bénédicte Salthun-Lassalle
En savoir plus sur http://www.pourlascience.fr/ewb_pages/a/actu-un-antibiotique-contre-parkinson-38246.php#BEsLJUkZ7g8PAzEZ.99
Qu’est-ce que les gens recherchent le plus sur internet ? Powerball, la loterie dont les gains se sont élevés à 1,6 milliard pour un seul tirage l’année dernière, est le terme que les Américains ont le plus cherché en 2016, selon le moteur de recherche Google.
Au plan mondial, Pokémon Go, le jeu sur smartphone dans lequel les joueurs tentent de capturer des personnages dans des endroits publics, a fait le plus de curieux.
En dehors des jeux, y compris les vrais comme les Jeux olympiques, les stars du rock Prince et David Bowie ont fait beaucoup d’entrées. Donald Trump, Hillary Clinton et les élections américaines font partie du top 10 des recherches. Trump est en troisième position, et le dernier modèle d’iPhone est deuxième. Deux films d’action font également partie du top 10 du classement.
Selon les estimations des analystes de l’internet, plus de 2 milliers de milliards de recherches par an sont effectuées sur Google, soit 5,5 milliards par jour. Sans donner de chiffres précis, le moteur de recherche a établi cette liste des termes les plus recherchés aux États-Unis en 2016 :
Et voici le classement des termes les plus recherchés dans le monde entier :
Google a analysé les termes les plus populaires dans 64 pays. En Inde, les Jeux olympiques, Pokémon et le tournoi de foot Euro 2016 ont suscité le plus d’intérêt. Au Mexique, Pokémon, les Jeux olympiques et Juan Gabriel, le chanteur décédé en août, étaient au top des recherches.
Au Royaume-Uni, l’Euro 2016, Pokémon et David Bowie sont arrivés en tête. Dans la catégorie des politiques, Trump est devant Theresa May, la nouvelle Première ministre.
Source : https://share.america.gov/fr/google-revele-les-recherches-les-plus-populaires-de-2016/
Einstein avait une nouvelle fois raison. C’est ainsi que la communauté scientifique a validé, en 2016, une autre hypothèse de l’éminent scientifique, en confirmant l’existence des ondes gravitationnelles, hypothèse qu’il avait formulée il y a plus d’un siècle dans le cadre de sa théorie de la relativité générale.
Pourquoi est-ce important ? Comme l’explique l’astrophysicien Jeffrey Bennett, la théorie de la relativité générale d’Einstein a changé notre manière de comprendre le fonctionnement de l’espace, du temps et de la gravité. La détection d’ondes gravitationnelles confirme l’incroyable génie d’Einstein et encourage les scientifiques à « explorer l’univers à la recherche des objets les plus exotiques, notamment des trous noirs », ajoute Bennett.
Pour le magazine Science, il s’agit de la découverte scientifique de l’année, soulignant « qu’elle a bouleversé la communauté scientifique ». Pour mieux comprendre comment ça fonctionne, regardez la vidéo ci-dessous. On voit comment deux objets qui gravitent l’un autour de l’autre génèrent des ondes. Plus les objets se rapprochent, plus les ondes s’intensifient.
Des physiciens de l’Observatoire d’ondes gravitationnelles par interférométrie laser (LIGO), qui comprend deux installations, l’une en Louisiane et l’autre dans l’État de Washington, l’ont confirmé : ils ont observé des ondes générées par deux trous noirs qui sont entrés en collision.
Les ondes gravitationnelles se déplacent dans l’univers presque de la même manière que les ondes audio se déplacent dans l’air. LIGO a créé une simulation du son d’ondes gravitationnelles comme si c’étaient des ondes audio. Pour écouter, cliquez ici.
Les scientifiques se réjouissent de cette découverte sur les ondes gravitationnelles, car elle pourrait ouvrir les portes à tout un nouveau domaine de la science.
La preuve que les ondes existent confirme que l’univers se comporte comme les scientifiques le pensaient. C’est la première étape vers la conception d’instruments plus performants qui permettront aux chercheurs de mieux étudier les planètes, les étoiles et les trous noirs à travers l’univers.
« Cette détection est le début d’une nouvelle ère », déclare Gabriela González de la Collaboration scientifique LIGO, un groupe de plus de 1 000 chercheurs venant d’universités américaines et de 14 autres pays. « Le domaine de l’astronomie gravitationnelle est devenu une réalité », ajoute la professeure de physique et d’astronomie à Louisiana State University.
Découvrez les autres découvertes marquantes de 2016.
Chaque minute, pas moins de 400 heures de vidéos sont téléchargées, à travers le monde, sur YouTube, le fameux site de Google. En pratique, cela se traduit, pour le géant américain, par d’énormes quantités de traitement informatique et aussi d’électricité consommée. C’est pour cette raison que Google prévoit, d’ici 2017, d’alimenter uniquement à l’énergie renouvelable ses immenses centres de données et ses locaux dans le monde entier.
« Notre objectif final est de créer un monde où tout un chacun, et pas seulement Google, a accès à l’énergie propre », affirme Urs Hölzle, vice-président senior de Google.
Prochainement, Apple fera également appel à l’énergie renouvelable pour l’ensemble de ses opérations. En effet, le géant high-tech et créateur de l’iPhone a déclaré s’être pourvu de sources d’énergies renouvelables suffisantes pour alimenter 93 % de ses installations et locaux dans le monde. De même que la firme s’emploie aussi à fournir à ses fabricants, dont beaucoup en Chine, de l’énergie éolienne et solaire.
Google alimentera la totalité de ses opérations au moyen d’énergie renouvelable
Rejoignant Apple, Facebook, Intel et d’autres grands noms de la haute technologie, Google a annoncé sa transition accélérée vers l’énergie renouvelable, dans le cadre de l’engagement pour le climat pris par les entreprises américaines en 2015.
Dans le même sens, selon les propos de Gary Cook, chargé de la campagne énergie au sein du groupe de défense de l’environnement Greenpeace, une vingtaine d’autres entreprises high-tech se sont également engagées à réunir suffisamment de sources d’énergies renouvelables pour leurs opérations mondiales.
Par ailleurs, Google a fait remarquer que ses 20 projets d’énergie renouvelable contribuent à l’économie de collectivités aux quatre coins du monde, du comté de Grady, dans l’Oklahoma, à celui de Rutherford, en Caroline du Nord, en passant par la région Atacama du Chili et à des municipalités suédoises.
« On a commencé à acheter de l’énergie renouvelable pour réduire notre empreinte carbone et répondre au changement climatique – mais c’est aussi une bonne chose sur le plan des affaires », souligne Urs Hölzle, le cadre de Google. La chute des coûts et les prix stables des énergies renouvelables en font un choix intelligent, ajoute-t-il.
Google et Apple revendent aussi certains de leurs excédents d’énergies renouvelables sur le marché de l’électricité.
« Aujourd’hui, plus que jamais, les entreprises doivent faire preuve de ce genre de leadership sur le plan des énergies renouvelables », affirme Gary Cook, de Greenpeace.
Cet article se fonde sur des dépêches de l’Associated Press.
Source : https://share.america.gov/fr/lobjectif-de-google-salimenter-100-lenergie-renouvelable
Et si tout le dioxyde de carbone émis par les cheminées et les véhicules à moteur pouvait servir à construire des immeubles au lieu de polluer l’air ? Cette idée pourrait devenir une réalité si un nouveau procédé parvenait à se généraliser. Les scientifiques convertiraient du dioxyde de carbone (CO2), un gaz à effet de serre qui contribue au changement climatique, en fibres de carbone (nanofibres) ; ce qui pourrait constituer un matériau de construction.
Cette solution est-elle commercialement viable ? Stuart Licht, chercheur principal d’une équipe de l’université George Washington qui étudie ce procédé, pense qu’elle pourrait le devenir. Son équipe a découvert que les nanofibres de carbone sont plus solides, plus flexibles et plus conductrices que l’acier. On peut donc les utiliser pour de multiples applications, comme dans les batteries et les appareils électroniques ou encore dans les bâtiments, les avions, les voitures et les équipements sportifs, par exemple.
Plus écologique = plus économique ?
Stuart Licht a présenté les résultats des recherches de son équipe en 2015. Depuis, celle-ci a trouvé mieux. Ces nanofibres peuvent former une structure encore plus solide : les nanotubes de carbone. Une étude récente révèle qu’il est économiquement possible d’extraire le CO2 émis par les centrales thermiques au gaz naturel et de le convertir en nanotubes, explique Stuart Licht.
Les constructeurs automobiles utilisent déjà la fibre de carbone au lieu de l’acier pour alléger les véhicules. Le problème, c’est que la fabrication de fibres de carbone revient cher ; les matières premières, la consommation d’énergie et l’équipement nécessaires sont coûteux. La production d’acier et d’aluminium est moins onéreuse.
Mais si on parvient à extraire le carbone des grandes quantités de CO2 contenues dans l’atmosphère, le prix de revient de la fibre de carbone pourrait considérablement baisser. Et, note Stuart Licht, des entreprises se montrent déjà intéressées.
Un nouveau procédé qui utilise l’énergie solaire
Le CO2 est transformé en nanofibres de carbone en quelques étapes et en utilisant de l’énergie renouvelable :
Selon Stuart Licht, ce procédé pourrait être appliqué à une échelle qui permettrait de réduire considérablement les émissions de CO2 causées par les activités humaines.
Martin Stute, spécialiste de l’environnement qui a participé aux recherches sur le processus de conversion du CO2 en roche, juge prometteuses les recherches préliminaires sur les nanofibres de carbone. « On peut espérer pouvoir les utiliser dans la construction de bâtiments à la place de l’acier et de l’aluminium », estime-t-il.
Prochaine étape ? Le groupe de recherche de Licht fait partie des équipes en lice pour le prix Carbon Xprize. Une compétition qui vise à développer les technologies innovantes pour réduire l’impact du changement climatique en convertissant le CO2 en produits commerciaux.
Voilà une étude qui jette un (léger) doute sur l’innocuité de la cigarette électronique. De plus en plus utilisé à travers le monde, ce dispositif qui constitue souvent une alternative à la cigarette n’est pas en effet dénué de risques.
Telles sont les conclusions d’une étude publiée dans la revue New England Journal of Medicine, dans laquelle 15 cas d’accidents relatifs à l’utilisation de la e-cigarette ont été recensés. En effet, menée entre octobre 2015 et juin 2016, cette étude décrit 15 cas de brûlures, la cigarette électronique utilisée ayant pris feu ou ayant explosé spontanément.
Les blessures décrites sont de gravité variable, engendrées par des brûlures thermiques ou chimiques, elles prédominent au niveau de la face (20%), des mains (33%) et de la cuisse ou l’aine (53%). Les brûlures dont les répercussions sont à la fois esthétiques et fonctionnelles, ont dans certains cas nécessité le recours à la chirurgie ou une prise en charge en milieu intensif.
Les explosions en question auparavant considérées comme rares, sont en augmentation, en comparaison avec le nombre de 25 cas similaires d’explosions d’e-cigarettes enregistrés durant la période qui se situe entre de 2009 et 2014 au Royaume-Uni.
Ces incidents pourtant minimes par rapport aux dangers mortels liés au tabac, dont les victimes se comptent par millions rappelons le, renvoie à la question de la réglementation de la e-cigarette. Compte tenu du risque d’explosion et donc du risque pour la sécurité de l’utilisateur, il s’agit de renforcer les normes de fabrication et de surveillance de ce dispositif. Or, n’étant pas répertorié comme un produit de santé, la cigarette électronique échappe à l’encadrement auxquels les produits de santé sont soumis.
Entre réticence et engouement, la cigarette électronique ne sera pas délaissée de sitôt, bien au contraire. Aux décideurs d’en prendre conscience et de faire en sorte d’encadrer au mieux sa vente et son utilisation.
Meriem Ben Nsir
http://www.leconomistemaghrebin.com/2016/10/10/e-cigarette-risque-explosion-present/
Sept facultés américaines, dont deux ex aequo à la 10e place, font partie des 10 meilleurs établissements dans le nouveau classement mondial des universités.
L’université d’Oxford, au Royaume-Uni, arrive en première place, mais les facs américaines forment le gros du peloton de tête : 3 font partie des 5 premières, et 63 sont classées parmi les 200 meilleures du monde. (Les deux universités en tête du classement ont interverti leur place par rapport à l’année dernière, et l’université de Californie à Berkeley est passée de la 13e position à la 10e, ex aequo avec Chicago.)
Le Times Higher Education vient de publier pour l’année scolaire 2016-2017 son classement mondial des universités les plus réputées*. Ces établissements sont notés sur la qualité de l’enseignement, la recherche, le transfert de savoirs et leur dimension internationale. La liste comprend des institutions de 79 pays, représentant 5 % de l’élite des universités du monde entier.
Plusieurs universités américaines spécialisées en sciences, technologie, ingénierie et maths (ce qu’on appelle la filière STEM en anglais) font partie des établissements en tête du classement. Mais avec l’ajout de la catégorie « publication de livres et de chapitres de livres* » dans celle des « résultats de la recherche » en plus des articles, les facs axées sur les lettres et les sciences humaines sont mieux représentées qu’auparavant.
Google est menacé d’une amende record d’environ trois milliards d’euros de la part des autorités européennes de la concurrence dans les semaines à venir, rapporte le Sunday Telegraph.
L’Union Européenne reproche au géant d’internet de tromper les consommateurs et ses concurrents en manipulant les résultats de son moteur de recherches afin qu’ils favorisent ses propres services. Cette affaire traîne depuis fin 2010. L’amende pourrait tomber début juin, selon les sources citées par le Telegraph.
Il faut savoir que la Commission Européenne a la possibilité d'infliger des amendes allant jusqu’à 10% du chiffre d’affaires de l’entreprise incriminée. Dans le cas de Google, une sanction pourrait donc en théorie atteindre plus de six milliards d’euros.
Le record en la matière est détenu par le producteur de semi-conducteurs Intel, qui a reçu une amende de 1,1 milliard d’euros en 2009.
Dans un autre dossier, l’exécutif européen a accusé le mois dernier Google d’abus de position dominante avec son système d’exploitation pour appareils mobiles Android, ouvrant ainsi un second front contre le groupe américain qui risque là encore de lourdes amendes.
En principe, il ne doit pas y avoir d’armes nucléaires dans l’espace extra-atmosphérique et il est interdit d'établir des bases militaires sur la Lune. De même que, d'un point de vue juridique, tous les pays ont le droit d’explorer le Cosmos pour le bien de l’Humanité. On doit ces dispositions au Traité sur l’espace extra-atmosphérique, entré en vigueur le 10 octobre 1967.
Ce traité a été conclu en pleine guerre froide entre les États-Unis et l’ex-Union soviétique. Pressentant l’exploration de la Lune et des corps célestes encore plus distants, les deux pays voulaient éviter une concurrence militaire ou nationale qui aurait été mal avisée. Or l’exploration de l’espace extra-atmosphérique doit se fonder sur le principe de la coopération internationale : les signataires, aujourd’hui 103, en conviennent. Outre la démilitarisation de l’espace et le droit qu’a tout pays de prendre part aux activités d’exploration, le traité contient les dispositions suivantes :
Jusqu'à présent, la station spatiale internationale semble être une bonne illustration du Traité sur l’espace extra-atmosphérique. Habitée depuis près de 14 ans sans interruption, elle a accueilli des astronautes et des cosmonautes de 15 pays différents, venus pour des séjours plus ou moins brefs. Un autre exemple de l’application du Traité : les efforts conjoints menés à l’échelle internationale pour explorer la planète Mars.
Il n'en reste moins qu'il ne faut pas se fier aux apparences et que ces deux exemples ne sont pas une garantie du respect du Traité par les Etats signataires. Car, malheureusement, l'expérience nous a trop souvent montré que les traités n'ont pas plus de valeur que le papier sur lequel ils sont rédigés. Une militarisation de l'Espace, ainsi que la construction de bases sur la Lune ou sur d'autres planètes, sont-elle envisageables à moyen et long terme ? Bien que nous n'ayons, pour l'instant, aucune certitude à ce sujet, une réponse par l'affirmative à la question posée ne semble pas être absurde. Loin s'en faut.
Des développeurs canadiens, représentant Thoth Technologies, travaillent sur la construction d'un ascenseur de 20 kilomètres allant jusqu'à l'espace, un projet révolutionnaire qui transformera la notion de tourisme spatial et de tourisme en général.
La tour de 20 km, faite de segments hermétiques, vise à atteindre la stratosphère, expliquent les ingénieurs canadiens. A son sommet, ils envisagent de construire une plateforme spéciale à des fins de communication et de tourisme. De plus, la plateforme éventuelle servira de point de départ pour l'espace. L'objectif principal de ce projet consiste à envoyer les humains dans l'espace plus efficacement.
"Les spationautes monteront à 20 kilomètres dans un ascenseur électrique. Du haut de la tour, les engins spatiaux atteindront l'orbite et reviendront sur la plateforme de la tour pour prendre du carburant ou différents chargements," a expliqué l'inventeur de la tour Brian Quine. L'étape finale de la construction de l'ascenseur spatial est fixée à la fin de 2050. Les travaux de construction auront lieu au Japon.
Caroline Roberts, représentante de Thoth Technologies, place grand espoir dans le projet, en déclarant que cette initiative bouleversera notre idée du tourisme spatial.
A la différence du lancement d'un aéronef presqu'à l'altitude du niveau de la mer, la même expérience à 20 kilomètres d'altitude "ressemblera au décollage d'un avion classique" a-t-elle précisé.
On espère également que ce projet ambitieux amplifiera les possibilités du tourisme. Par exemple, les plateformes de la tour pourront héberger des hôtels avec des vues incroyables, ou bien attireront des parachutistes.
Source: http://fr.sputniknews.com/sci_tech/20150818/1017632680.html
La vie privée des utilisateurs de Windows 10 et leurs données
personnelles sont mises à rude épreuve avec les paramètres par défaut du système d'exploitation de Microsoft.
Après la polémique provoquée par le choix
du navigateur Edge par défaut, Microsoft
doit faire face à une nouvelle vague de critiques suite à la mise à jour de son OS Windows 10. Le succès se confirme pour le nouveau système d'exploitation. Avec plus de 67 millions de
téléchargements de Windows 10, la mise à niveau
convainc chaque jour plus d'utilisateurs. Mais la rançon de la gloire, c'est que les critiques fusent. En cause, la collecte massive des données personnelles des utilisateurs de Windows 10. Le
prétexte invoqué est l'amélioration des services et du ciblage publicitaire. Un grand classique ...
Avis à tous les utilisateurs
avertis
Pour les utilisateurs avertis qui souhaitent que leur vie
privée ne soit pas scrutée sous tous les angles
par les algorithmes de Redmond, il faut commencer par refuser les paramètres par défaut de la politique de vie privée de Windows 10. Même si les données collectées sont supposées être anonymisées avant de partir alimenter les bases de
données de ciblage publicitaire, chaque appareil équipé de Windows 10 se voit désormais affubler d'un « identifiant publicitaire unique ». La traçabilité est donc facile. Microsoft se veut
transparent et rassurant, mais le géant du logiciel se réserve le droit de divulguer les données personnelles de ses utilisateurs si elle juge qu'il est nécessaire de le faire. Pour protéger sa
vie privée, il va falloir aller fouiller dans les paramètres du système d'exploitation.
Le
nouvel algorithme de Google va désormais créer automatiquement
des vidéos à partir de photos. Son nom de code sera DeepStereo.
Les ingénieurs
de Google ont mis au point un nouvel algorithme
- DeepStereo - qui est en mesure de créer une vidéo à partir de photos. La technique vise à créer et intégrer les images manquantes entre les photos. Cette technique existe sous différentes
formes déjà, comme avec l'application Hyperlapse, mais DeepStereo pourrait permettre de passer un cap dans le domaine, grâce au savoir-faire
et à la puissance de calcul de Google. L'application dans Google Street
View paraît être évidente, pour retrouver la
sensation de se promener avec fluidité dans les rues d'une ville. C'est d'ailleurs sur cette application en priorité que les programmeurs de Google ont testé leur nouvelle trouvaille. A partir de
2 clichés séparés d'un même bâtiment, Deepstereo peut maintenant créer une image de la maison dans son ensemble.
Le blocage réside au niveau de la puissance de calcul de l'algorithme
Pour l'instant, le point
bloquant de Deepstereo est son exigence en matière de puissance de calcul. Il faut dire que les résultats sont impressionnants, avec une
création d'images 3D et 2D extrêmement détaillées. La création d'une image de synthèse nécessite
plus d'une dizaine de minutes. Une application en ligne de Deepstereo n'est donc pas possible dans l'immédiat, mais en combinant une
augmentation de la puissance de calcul de serveurs, et une réduction de la précision des
images créées, on peut anticiper que Google pourra sortir prochainement des applications grand public utilisant Deepstereo à la volée. A la
clé, la production de
vidéos pour tous, à partir de simples
photos.
La consommation de café aiderait à lutter contre les pannes sexuelles. Les vertus aphrodisiaques du café, qui augmente la libido en favorisant la sécrétion de dopamine dans le cerveau, avaient déjà été mises en évidence. Aujourd'hui, une étude réalisée aux USA par des chercheurs de l’Université du Texas, et publiée sur le site de la revue Plos One, a mis en évidence le rôle du café dans la diminution des troubles érectiles. Il faut savoir que, contrairement au Viagra et autres inhibiteurs de la phosphodiesterase (IPDE) 5, aux injections intra-caverneuses et aux crèmes érectiles dont la dernière en date est le Vitaros, le café est un produit naturel.
L’Etude réalisée par le groupe de scientifiques américains a été menée sur un échantillon de 3724 hommes de plus de 20 ans d’âge, divisés en cinq groupes différents selon leur consommation de café au quotidien. A noter qu’aucun de ces individus ne souffre de maladie susceptible de provoquer des troubles de l’érection.
Deux ou trois tasses de café par jour réduisent de 42% le risque de pannes sexuelles
Les résultats ont été probants : chez les personnes ayant consommé entre 85 et 170 milligrammes de caféine par jour, autrement dit 2 ou 3 tasses de café, le risque de pannes sexuelles diminue de 42 %. Ces résultats s’expliqueraient par le fait que la caféine faciliterait (vraisemblablement en favorisant la dilatation des vaisseaux sanguins) l’afflux de sang au niveau du pénis et, par là même, l’érection. Il n’en reste pas moins que la dose de caféine mentionnée par l’Etude est une dose optimale. Les chercheurs de l’Université du Texas ont clairement démontré qu’au-delà de trois tasses de café, soit170 milligrammes par jour, non seulement les bénéfices de la caféine n’augmentent pas, mais pourraient même diminuer.
Quoiqu’il en soit, les bénéfices du café ne se comptent plus, en matière de lutte contre le vieillissement (ralentissement de l’oxydation des cellules) et aussi contre de nombreuses pathologies : cancer, asthme, dépression nerveuse, maladie d’Alzheimer ... C’est dire aussi que les études sur les innombrables vertus du café ne font que commencer.
Le Nabu X a été dévoilé au dernier Consumer Electronics Show (CES) en janvier 2015 à Las Vegas. Le bracelet connecté, dernier-né de Razer,
ajoute l'interaction sociale à des fonctionnalités plus classiques.
Il assure un suivi de l'activité au quotidien, mais permet aussi d'interagir de bracelet à bracelet. Notamment échanger des données à la faveur d'une simple poignée de mains !
Se faire des amis grâce au bracelet
C'est d'ailleurs sur cet aspect que le Nabu X essaie de se distinguer des autres bracelets intelligents. A condition de tomber sur un passant qui porte le même bracelet, il est tout à fait
possible de partager des données avec lui.
Informations Twitter, Facebook, ou encore les activités du jour : peu fourni encore, le marché des applications du Nabu X promet aussi le développement de jeux multijoueur à tester dans la
réalité. L'application Nabu Gamers par exemple permet déjà d'identifier les joueurs inscrits sur la plateforme de jeux en ligne Steam, à condition qu'ils portent le bracelet.
Trois leds pour signaler des messages
Au contraire de son grand frère qui affiche les dernières notifications sur un écran, le Nabu X se contente d'un affichage en trois LEDs. Via différentes couleurs et des vibrations, le bracelet
prévient celui qui le porte de la réception de messages ou d'interactions sociales.
Le bracelet est connecté en bluetooth avec le smartphone. Quelques applications sur Android et iOS permettent déjà d'en explorer les capacités : un tracking de l'activité au quotidien par
exemple, un suivi des plages de sommeil ou encore une fonction de réveil en douceur.
http://www.commentcamarche.net
Chez des souris transgéniques âgées, des chercheurs canadiens ont observé que l’absence des molécules TIMP1 et TIMP3 conservait le tissu jeune. Les TIMPs sont des inhibiteurs de métalloprotéinases, des enzymes impliquées dans le remodelage des tissus.
Dans un tissu en renouvellement, des métalloprotéinases (ou MMPs) sont comme des entrepreneurs qui travaillent constamment à la destruction et à la reconstruction du tissu. En même temps, des protéines tentent de diriger leurs travaux : les inhibiteurs tissulaires de métalloprotéinases, ou TIMPs (tissue inhibitor of metalloproteinase). Si la communication entre ces facteurs et les enzymes qu’ils dirigent est mauvaise, le tissu est affecté et le cancer peut en être une conséquence.
Au cours du vieillissement, nos tissus perdent leur capacité à se développer et à se réparer aussi vite que lorsque nous étions plus jeunes. Les cellules souches, abondantes chez les jeunes, déclinent au cours du temps. Chez la femme, l’âge représente le principal facteur de risque de cancer du sein.
Le tissu reste jeune sans TIMP1 et TIMP3
Pour comprendre comment TIMPs et métalloprotéinases interagissent, des chercheurs de l’université de Toronto ont utilisé des souris chez qui il manquait un ou plusieurs TIMPs. Ils ont testé plusieurs combinaisons de TIMPs. Dans leurs résultats parus dans la revue Nature Cell Biology, les chercheurs expliquent qu’ils ont trouvé que, si on retirait TIMP1 et TIMP3, le tissu restait jeune chez des souris âgées: sans ces inhibiteurs, plus de vieillissement du tissu !
Par ailleurs, sans les protéines TIMP1 et TIMP3, le stock de cellules souches restait fonctionnel tout au long de la vie des souris. Or, comme l’explique Rama Khokha, auteur de ces travaux, normalement ces stocks de cellules souches atteignent leur pic à 6 mois chez les souris puis commencent à décliner. Le résultat est que les glandes mammaires commencent à dégénérer, ce qui augmente le risque de cancer du sein. Mais ce n’est pas le cas ici : « Cependant, nous avons trouvé que chez ces souris particulières, les cellules souches restent systématiquement élevées quand nous les avons mesurées à chaque étape de la vie. »
Malgré ce grand nombre de cellules souches, il n’y avait pas de risques accrus de cancer. « On suppose généralement que la présence d’un grand nombre de cellules souches peut conduire à une augmentation du risque de cancer. Mais nous avons trouvé que ces souris n’avaient pas plus de prédisposition au cancer. »