Le projet ARA

Le projet Ara est un projet novateur visant à introduire la personnalisation et la modularité pour le marché des smartphones. Plutôt que les modèles actuels de téléphones hautement intégrés que nous avons, le projet Ara permet de mélanger et d’assortir des composants, de sorte que vous n’aurez plus besoin d’acheter un nouveau téléphone lorsque votre écran se brisera ou si vous voulez un plus grand espace de stockage interne.

Comme déjà évoqué, le Project Ara est un des projets développés au sein du Advanced Technology and Projects (ATAP), anciennement dans le giron de Motorola Mobility. Pour rappel, ce projet ambitieux a pour objectif de créer une plate-forme open-source pour smartphone. Sur une base appelée « endo »squelette, il sera possible d’ajouter des modules avec un système d’aimants. Ces modules pourront être un appareil photo, une batterie, un capteur, de la mémoire… afin de pouvoir personnaliser complètement son smartphone.

Quand est-ce que le premier smartphone Ara sera commercialisé ? Google prévoit de le commercialiser en 2015. Un place de marché permettra d’acheter ces « modules », de les échanger et différents outils faciliteront l’accès à cette technologie.

Quel sera le prix du smartphone Ara ? Google espère pouvoir concevoir un smartphone « entrée de gamme » pour 50 dollars (environ 35 euros). Le téléphone haut de gamme devrait coûter environ 500 dollars (370 euros). Il s’agit d’un coût de fabrication, il faut donc s’attendre à des appareils entre 100 et 700 euros, en fonction des modules choisis.

Quelles seront les tailles des téléphones Ara ? Google a prévu trois tailles différentes d’endosquelette, avec des écrans entre 3 et 6 pouces. Chaque appareil pourra recevoir un nombre de modules différents, tandis que certains modules ne fonctionneront qu’avec le grand « endosquelette ».

Comment fonctionnent les modules ? Les modules se connectent à l’endosquelette grâce à des aimants électro-permanents. L’impulsion magnétique permet d’activer les modules, qui pourront échanger des données jusqu’à 10 Gbs et avec une consommation jusqu’à 5 Watts. Les aimants n’ont pas besoin d’une charge constante pour maintenir une liaison. Les modules peuvent être créés par différents développeurs, grâce au MDK (Module Developers Kit).

Comment acheter des modules ? Google a prévu de lancer une place de marché où il sera possible d’acheter et commercialiser des modules, mais aussi de les échanger.

Les téléphones fonctionneront-ils sous Android ? Oui, Android est l’OS par défaut. Justement, Android devrait évoluer afin de permettre cette modularité. La dernière version, Android 4.4 KitKat, n’a pas été prévue pour être compatible avec un projet de ce type. Début 2015 sera dévoilé une version d’Android conçue pour supporter cette modularité.

Et le premier prototype ? Il a été présenté à la conférence, il ne possède pas d’aimants électro-permanents, mais des clips pour maintenir les modules en place. Le bus d’alimentation est également encore en cours d’élaboration. Il fonctionne grâce à une architecture OMAP (Texas Instrument). Vous remarquerez qu’il a un écran fissuré, « pas grave, il suffit de changer l’écran ».

Quelle est la durée de vie d’un téléphone Ara ? C’est une des problématiques du projet. Les téléphones du Projet Ara sont censés avoir une durée de vie de cinq à six ans – beaucoup plus que votre smartphone actuel. Le téléphone sera « évolutif », ce qui vous permettra de le maintenir à jour en changeant les modules.

Existera t-il un seul design ? Non, chaque module pourra avoir sa propre couleur et sa propre texture. Un module pourra également dépasser « le périmètre du téléphone ». D’ailleurs, un module pourra avoir plusieurs fonctionnalités. L’objectif étant de créer des milliers de combinaisons possibles. Si vous souhaitez un clavier physique, cela sera possible. Deux batteries, également possible. Un zoom optique. Vous pourrez certainement imprimer votre « design » avec de l’impression 3D.  Le Projet Ara travaille avec 3D Systems pour développer un nouveau type d’imprimante 3D qui est capable de réaliser de la production de masse personnalisées pour les modules.

Il sera sûrement possible de télécharger directement les pilotes des modules sur le Google Play. Google a beaucoup insisté sur la facilité d’utilisation de ces modules, afin de pouvoir s’adresser à tous les publics : Ara se veut un projet « intemporel grâce à la personnalisation », flexible, facile d’accès et réparable.

Les défis que doit surmonter ATAP sont redoutables mais surmontables. Depuis l’iPhone, la technologie mobile a migré inexorablement vers l’intégration. L’objectif étant de mettre le maximum de composants sur un seul circuit imprimé (ou même une seule puce). Cette intégration a permis d’économiser de la place, de la batterie, gagner en épaisseur, en coût et en poids. Néanmoins, cette intégration limite la durée de vie et la personnalisation de nos appareils.

Qu’est ce que Google essaye de faire ? Construire une industrie au sein d’une industrie. La firme californienne est obligée de pousser de nouveaux standards et de nouvelles technologies. Par exemple, le standard de communication appelé « UniPro » pour simplifier les communications entre chaque module.

La mission actuelle de l’équipe derrière Ara ? Agréger une masse critique de développeurs de modules pour créer un écosystème viable. Google veut créer un smartphone pour les 7 milliards d’humains, à la fois esthétique et fonctionnel.

Deux ans pour mettre en place un projet extrêmement ambitieux. Le challenge est énorme, il fait rêver.

Course à la 4K

Les constructeurs de smartphones mettent de plus en plus en avant les résolutions élevées de leurs terminaux. Le 2560 x 1440 devrait arriver cette année alors qu’en 2015, les écrans devraient être équipés d’une définition de 3840 x 2160 pixels. De quoi atteindre des résolutions de plus de 800 PPI. Mais quel intérêt ?

AUO et leur écran WQHD

AUO et leur écran WQHD

Ces dernières années, on assiste dans le monde du mobile à une course à la définition et à la résolution la plus élevée avec notamment l’annonce récente d’AUO et de sa dalle 5,7 pouces d’une définition de 2560 x 1440 pixels et d’une résolution de 513 PPI. Avant de se plonger dans le détail des tenants et aboutissants, il faut distinguer ces deux termes.

La définition des écrans : les pixels

La définition d’un écran se calcule en pixels, en multipliant une ligne horizontale de pixels avec une ligne verticale de pixels. Par exemple, la définition Full HD, 1920 x 1080, contient 1920 pixels sur une ligne horizontale et 1080 pixels sur une ligne verticale. Ce qui donne au total une dalle équipée de 2 073 600 pixels.

La résolution des écrans : les PPI

La résolution dépend de la définition de la dalle ainsi que de sa taille. Elle s’exprime en PPI, c’est-à-dire le nombre de pixels par pouces (pixels per inch). Une dalle de 5 pouces d’une définition de 2560 x 1440 possédera ainsi une résolution de 587 PPI alors que si la définition était de 1920 x 1080 pixels, la résolution serait de 440 PPI. La première dalle affichera plus de pixels pour une même taille d’écran, de quoi avoir des images plus nettes. Des outils en lignes permettent facilement de calculer le nombre de PPId’une dalle en partant de sa diagonale et de sa définition, le calcul étant moins simple que pour la définition.

L’exemple pris pour expliquer les notions de définition et de résolution n’a pas été choisi au hasard. Les informations actuelles font état de arrivée d’écrans d’une définition de 2560 x 1440 pixels pour l’année 2014, que ce soit chez LG mais également chez Samsung ou encore Oppo. On est bien loin de la dalle 4 pouces de 480 x 800 pixels du Samsung Galaxy S sorti il y a pourtant moins de quatre ans. Sa résolution était alors de 233 PPI. Dans le même temps, les écrans d’ordinateurs stagnent en Full HD même si on commence à voir arriver le 2560 x 1440 pixels depuis quelques années, mais à des tarifs inabordables pour les particuliers. Leur résolution est très faible comparée aux smartphones et tablettes du fait d’une taille d’écran bien plus élevée. Alors à quoi sert cette course à la résolution ? Est-ce un argument marketing ou les utilisateurs bénéficieront réellement d’un confort visuel accru ?

La résolution est importante, on ne va pas le nier. Lorsqu’Apple a introduit les écrans Retina sur les iPhone, c’était le jour et la nuit, et on serait aujourd’hui incapables de repasser à des écrans dotés d’une faible résolution. Le texte est bien plus lisible avec une résolution élevée, sans prendre en compte la vidéo, les photos ou encore les jeux. Mais l’œil humain est-il capable de discerner des résolutions aussi élevées ? Pour tenter de répondre à cette question, il convient d’étudier un peu le fonctionnement de l’œil.

Le pouvoir de résolution de l’œil humain

La capacité de la vision humaine se mesure avec le pouvoir de résolution : c’est la capacité de l’œil à discerner deux points contigus entre eux. Bien sûr, cela dépend de la capacité visuelle de la personne, chaque individu étant unique sur ce point, mais également la distance de l’objet, la taille du point à discerner et la distance entre les deux points. Cette capacité se calcule en minutes d’arc. A titre d’information, le fameux test de Snellen effectué par les ophtalmologues peut servir à calculer le pouvoir de résolution du patient. Il faut pour cela que le test soit effectué dans des bonnes conditions de lumière mais aussi de distance. Si c’est le cas, un individu qui a 20/20 (ou 10/10) possède une capacité de résolution de 1 minute d’arc. Pour certains individus, il est courant d’obtenir 0,8 minute d’arc. Certains tests réalisés dans des conditions idéales permettent même d’atteindre 0,5 minute d’arc (soit 20/10). Dans l’image ci-dessous, l’exemple prend une personne qui a une vision de 20/20 sur l’échelle de Snellen et qui peut distinguer deux toiles qui ont un angle apparent de 1 minute d’arc.Une personne avec une moins bonne vision ne verra qu’un seul point alors qu’une personne avec une meilleure vision pourra discerner des étoiles encore plus proches entre elles.

Lorsqu’Apple a introduit les écrans Retina, la société s’est basée sur une valeur de 1 minute d’arc. Pour Apple, une personne qui tient un écran à une distance de 25 à 30 centimètres de distance de ses yeux, n’a pas besoin d’une résolution de plus de 300 PPI. On retrouve là la notion de PPD : Pixels Par Degré. C’est le fait de prendre en compte la distance de vue par rapport à la résolution. En effet, si on regarde un écran à 10 mètres de distance, il n’est pas nécessaire d’avoir une résolution élevée. En revanche,un écran situé à 10 cm de nos yeux devra avoir une résolution élevée si on ne veut pas distinguer les pixels et avoir une image pixellisée. À titre  d’exemple, la valeur du PPD de l’iPhone est de 57 et peut atteindre 85 sur l’iPad Mini Retina.

L’intérêt des hautes résolutions

On peut donc aller encore plus loin que les écrans Retina et cela peut avoir du sens. Par exemple, pour les personnes qui possèdent une bonne vue. Mais surtout, il n’est pas rare de rapprocher son smartphone à une distance de moins de 25 centimères lorsqu’on veut regarder un détail d’une photo, par exemple. Pour une personne bénéficiant d’une excellente vue (capable de discerner des objets avec un angle apparent de 0,3 minute d’arc), un écran de 3,5 pouces devrait bénéficier d’une résolution de 952 PPI pour une distance de vue de 30 centimètres. Mais pourquoi fabriquer de tels écrans s’ils sont utiles à une extrême minorité de la population ? Il est en effet plus réaliste de se baser sur une valeur, déjà extrême, de 0.5 arcminute, ce qui donne 120 PPD, soit environ 600 PPI pour un écran de smartphone tenu à une distance de 25 centimètres.

Au delà de 600 PPI, les fabricants auront vraiment du mal à trouver un intérêt à vendre des écrans de la sorte. Nos confrères de Cultofmac arguent qu’avec des écrans de plus de 600 PPI, on pourra utiliser une loupe pour apprécier tous les détails d’une photo ou encore ne plus distinguer les images de la réalité. Ce dernier argument provient d’une recherche du NHK qui explique que plus les pixels sont petits, plus il devient difficile de distinguer une image numérique d’une image réelle.

A gauche l’écran PenTile du Galaxy Nexus, à droit l’écran RGB du HTC One X

Une autre utilisation d’écran à la définition ultra élevée peut se faire pour les dalles de type PenTile RGBG qu’utilise Samsung avec l’AMOLED. A l’intérieur de ces dalles, la moitié des pixels est composée de bleu et de vert quand l’autre moitié comporte du vert et du rouge. Les dalles dotées de grandes résolutions sont donc plus faciles et moins coûteuses à fabriquer mais la résolution annoncée est uniquement atteinte par les sous-pixels verts car les bleus et rouges sont deux fois moins nombreux. Ainsi, pour une dalle 5 pouces d’une définition de 2560 x 1440 pixels, la résolution de 587 PPI est uniquement vraie pour les sous-pixels verts. Les sous-pixels bleus et rouges ont quant à eux une résolution de 415 PPI. Sur les dalles 720p, l’utilisation du PenTile était vraiment gênante. Sur les dalles Full HD, cela peut se voir sur certaines images même si c’est léger. Une définition plus élevée permettra donc de se rapprocher des 600 PPI pour les sous-pixels bleus et rouges et ainsi supprimer « l’effet PenTile ».

600 PPI sur smartphone : réaliste ?

Pour atteindre 600 PPI sur un écran de smartphone, il faudra une définition élevée. Prenons une dalle de 5,2 pouces : il suffirait d’une définition de 2560 x 1800 pixels (donc un ratio 16:10 qui nécessite un smartphone légèrement plus large) pour atteindre les 600 PPI. Sur une dalle de même taille, une définition de 3840 x 2160 pixels aurait pour effet de porter la résolution à 850 PPI ! Le QHD (2K) sur les écrans de smartphones semble donc utile, mais l’UHD (4K) pose des questions. En revanche, sur un écran de plus grande taille comme une tablette, l’UHD pourrait être plus utile, même si on rapproche moins les yeux de l’écran et que nous n’avons pas forcément besoin d’une si grande résolution. Mais comment les smartphones vont bien pouvoir piloter plus de 4 millions de pixels ?

UHD, QHD : un gouffre énergétique

Plusieurs problèmes se posent : la consommation de la dalle et sa gourmandise vis à vis du chipset graphique qui doit piloter tous ces pixels.

Pour une dalle AMOLED, chaque pixel comporte une diode et pour les dalles LCD, chaque pixel possède un transistor. Il faut donc alimenter deux fois plus de transistors ou diodes pour la QHD et 4 fois plus pour l’UHD. Sans compter que pour les LCD, le système de rétroéclairage doit être plus puissant car le nombre plus élevé de transistors constitue un obstacle au passage de la lumière. Même si les fabricants de dalles réussissent à miniaturiser les transistors ou la gourmandise des diodes, leur consommation sera toujours plus élevée que pour une définition inférieure.

En plus de la consommation des dalles, les grosses définitions ont un autre effet néfaste, sur la consommation des puces graphiques mais également les performances du terminal. Le GPU est la puce graphique qui apporte à la dalle l’information à afficher. Chaque puce graphique possède un nombre maximal de pixels qu’elle peut traiter un en cycle d’horloge. Ce qui signifie qu’envoyer une image sur un écran UHD lui prendra quatre fois plus de temps que sur une dalle Full HD. De quoi handicaper fortement les performances de la puce dans les jeux. Si vous êtes à 60 images / secondes sur un jeu en Full HD, ce dernier pourrait tourner entre 15 et 30 images / secondes sur une dalle Ultra HD. Cela est bien sur une hypothèse simpliste mais qui a pour mérite d’expliquer rapidement et simplement le fonctionnement d’un GPU et la différence de performance qui existera entre les deux types de dalles. Pour conserver des performances décentes en jeux sur ces dalles à haute définition, il faudra donc revoir à la hausse les capacités des puces graphiques.

Des smartphones hétérogènes

Chaque année, les fabricants de puces parviennent à augmenter un peu les performances tout en réduisant la consommation. Mais l’enjeu de la très haute définition empêchera de se focaliser sur la baisse de la consommation, ce qui nuira encore plus à l’autonomie des téléphones équipés de ces dalles haute résolution et de GPU performants. Ne faudrait-il donc pas mettre en pause la course à la définition et tenter de se lancer dans la course à l’autonomie histoire de pouvoir tenir plus d’une journée loin de son chargeur ? Posséder un écran QHD ou UHD sur un smartphone se justifiera réellement lorsque les puces et les batteries seront à même de prendre en charge de telles dalles.

Les définitions les plus utilisées dans les smartphones

En guise de conclusion, voici un tableau récapitulatif des différentes définitions utilisées dans les smartphones. Nous avons indiqué le véritable nom de chaque définition avec son nom courant à côté. On se rend compte que parler de 2K ou de 4K est un abus de langage, de la part de nous-mêmes, de vous mais également des constructeurs qui font perdurer le flou autour des noms des définitions. 4K est en effet plus vendeur que UHD. On sait que c’est 4 fois mieux. Mais 4 fois mieux que quoi ? La base est le Full HD (1920 x 1080) qu’on multiplie par deux, pour avoir 4 fois plus de pixels, ce qui donne 3840 x 2160. Mais en 2012, la Consumer Electronics Association a officialisé l’utilisation du terme Ultra HD tout en acceptant l’utilisation de Quad HD. Le terme 4K renvoi à la définition utilisée au cinéma qui est de 4096 x 2560 pixels. En revanche pour la 2K, l’utilisation du terme est totalement inadaptée. En effet, on utilise souvent le terme 2K pour parler d’un écran d’une définition de 2560 x 1440 pixels. Mais quand on multiplie par deux le nombre de pixels d’une dalle Full HD, on ne retombe pas sur 2560 x 1440, il faut pour cela multiplier par 1,78. Le terme 2K est en fait utilisé pour au cinéma pour une définition de 2048 x 1080. Rien à voir avec le QHD (2560 x 1440) ou le WQXGA (2560 x 1600). Mais bon, il est vrai qu’il est bien plus simple d’utiliser et de mémoriser le terme 2K que WQXGA …

Définition (en pixels)
Ratio
Intitulé
Nom courant
Appareils
240 x 320 4:3 QVGA   LG Optimus L3 II
320 x 480 3:2 HVGA   iPhone 3G
480 x 800 5:3 WVGA   Samsung Galaxy SIII Mini
480 x 854 16:9 FWVGA   Sony Xperia L
540 x 960 16:9 qHD   Samsung Galaxy S4 Mini
640 x 960 3:2 DVGA   iPhone 4S
640 x 1136 16:9 WDVGA   iPhone 5S
720 x 1280 16:9 WXGA HD / 720p Motorola Moto G
768 x 1280 16:10 WXGA   Nokia Lumia 1020
1080 x 1800 15:9     Meizu MX3
1080 x 1920 16:9 FHD Full HD / 1080p / 1080i HTC One M8
1200 x 1920 16:10 WUXGA   Asus FonePad Note 6
1080 x 2048 17:9     Projecteurs Christie
1440 x 2560 16:9 (W)QHD

WQXGA

2K LG G3
1600 x 2560 16:10 WQXGA   Galaxy NotePro 12.2
2160 x 3840 16:9 UHD 4K Toshiba Satellite P55t
2160 x 4096 17:9 DCI 4K   Canon DP-V3010
4320 x 7680 16:9 FUHD 8K Prototype Sharp 85″

Un peu d’histoire

Commençons par le commencement. Si on parle officiellement de Symbian depuis 1998 (date de création de la compagnie), l’OS Symbian trouve ses origines bien plus loin dans le temps. En 1980 pour être exact ! Pourtant à cette époque on ne parlait pas encore de téléphones portables et encore moins de smartphones, mais les racines de Symbian sont à chercher ailleurs, chez un éditeur de logiciels : Psion.

Epoc l’ancêtre
En 1980, Psion Software est créé par David Potter. Cette société commercialise participe à la naissance des premiers PDA (avant même Palm Computing), des appareils dotés de claviers et d’écrans LCD monochromes sur lesquels on peut déjà installé des logiciels. Ces PDA reposent sur l’OS Epoc.

Un émulateur qui fait tourner Epoc sur Windows

Un émulateur qui fait tourner Epoc sur Windows

Entre 1991 et 1998, Psion commercialise plusieurs appareils étiquetés « Series 3 » sous la première version de l’OS Epoc 16. Par la suite Epoc sort les versions 1 à 3 de l’OS Epoc jusqu’en 1997 ou apparaissent le premier appareil sous « Series 5 ».

Psion_Series_3a[1]

Le fameux « Series 3 »

Epoc Release 4 (ER4) tourne sur les Geofox (1997) et Oregon (1998).
1998 est l’année de la création de Symbian : un consortium qui regroupe au départ Ericsson, Nokia, Motorola et Psion. Psion qui va faire de l’OS époque la base de ce qu’on appele aujourd’hui Symbian. Par la suite ils seront rejoinds par de nombreuses sociétés soit en tant qu’actionnaire, soit en achetant des licences

D’Epoc à Symbian
Entre 1997 et 1999, déferlente de modèles équipés de Epoc Release 5 (ER5) : Psion 5mx et 7, Revo, netBook, netPad et Ericsson MC218. Le Ericsson R380 (2000) est le premier appareil commercialisé sous l’OS Symbian ( ER5U).
On voit donc clairement au travers des dénominations utilisées aujourd’hui (Series et version d’OS) la filiation entre Symbian et Psion au travers le l’OS Epoc. On doit également à cet héritage les capacités multi-tâches de Symbian. Psion a finalement décidé de vendre ses parts et se retirer de symbian en 2004.

Aujourd’hui, Symbian est détenu par les géants de l’électronique grand public et Nokia y est quasiment majoritaire.

Nokia-Logo[1]