Les suites d’Avatar produites en partie grâce aux subventions néo-zélandaises

Avatar

En décembre dernier, le cinéaste James Cameron a annoncé la production de trois suites à son succès de 2009, « Avatar ». Les trois films seront tournés en Nouvelle-Zélande l’un après l’autre sans interruption et sortiront tous les 12 mois à partir de 2016.

Comme pour bon nombre de productions hollywoodiennes, le choix du lieu de tournage n’est pas le fruit du hasard. Les incitatifs fiscaux et subventions gouvernementales y jouent maintenant un rôle important. En fait, la Nouvelle-Zélande a été choisie après qu’elle ait conclu un accord visant à augmenter ses subventions à la production. Les nouvelles initiatives néo-zélandaises accorderont des réductions fiscales allant de 10 à 15 %, et une réduction de 5 % additionnel pour les réalisateurs qui procureront des avantages au pays. L’accord comprend également des engagements de la part de la 20th Century Fox sur des dépenses de production réalisées en Nouvelle-Zélande, des quotas de main-d’œuvre ainsi qu’un engagement pour que la Nouvelle-Zélande accueille l’une des premières de l’un des films.

James Cameron a tenu à souligner lors de sa conférence que ce pays n’a pas été choisi seulement pour ses subventions, mais aussi en raison du professionnalisme des équipes de production sur place et du savoir-faire en matière d’effets spéciaux. Le réalisateur travaillera donc avec Peter Jackson et son entreprise d’effets spéciaux, la Weta Workshop, pour éviter d’étendre les ressources disponibles. Ainsi, selon le réalisateur, la production de ces films aidera l’industrie cinématographique par l’incubation de nouveaux talents et le développement de nouvelles technologies pour la production d’effets visuels, tout comme l’avait fait le tournage de la trilogie du « Seigneur des anneaux », au début des années 2000.

Face au développement de l’industrie cinématographique néo-zélandaise, ainsi supportée par deux grands cinéastes (Cameron et Jackson) de renommés mondiales, le Québec devrait-il craindre pour la sienne? Pour l’instant, il semblerait que non. Grâce à sa main-d’œuvre qualifiée et à ses généreux crédits d’impôt, le Québec est devenu un lieu de choix pour la production d’effets spéciaux pour le cinéma et le tournage de films étrangers. Les superproductions hollywoodiennes qui sont produites au Québec ont droit à un crédit d’impôt de 25 % sur toutes les dépenses engagées et un crédit d’impôt de 45 % sur le coût des effets visuels. Cette stratégie a permis d’augmenter les dépenses étrangères. En 2012, Hollywood a dépensé au Québec 257 millions comparativement à 71 millions en 2009.

Avec de tels résultats et la venue de gros tournages américains dans la prochaine année, il semblerait que l’industrie cinématographique québécoise a pris son envol, mais que deviendrait-elle sans crédit d’impôt? Pourrait-elle concurrencer la Nouvelle-Zélande et ses paysages époustouflants et sa populaire société d’effets visuels? La réponse à ces questions est plutôt incertaine.

Crédit photo : © Twentieth Century Fox France

Advertisements
Publié dans Crédits d'impôt, Mieux Comprendre, Mieux Agir!, Technologie | Marqué , , , | Laisser un commentaire

Vers une définition commune de l’informatique dématérialisée (seconde partie)

Aujourd’hui, je vous propose la suite de mon article sur le Cloud : « Vers une définition commune de l’informatique dématérialisée ». Dans cette seconde partie, j’aborderai les différents modèles de déploiement ainsi que quelques-uns des obstacles qui leurs sont associés.

Les quatre modèles de déploiement

Cloud privé

Les cloud privés sont conçus pour être utilisés par une seule organisation ou entreprise. Un tel type de cloud peut être construit et géré par l’organisation même ou par un fournisseur. C’est le cloud qui offre le plus haut degré de contrôle de performance, de sécurité et de fiabilité. Toutefois, on le critique pour sa similarité avec une grappe de serveurs propriétaires traditionnels et parce qu’il n’offre pas l’avantage de ne pas nécessiter d’investissement initial.

Cloud communautaire

Un cloud communautaire ou Virtual Private Cloud (VPA) est une solution alternative pour faire face aux limitations d’un cloud privé et d’un cloud public. Un VPA est une plateforme qui opère au-dessus d’un cloud public. L’avantage d’un tel type de cloud est que les organisations peuvent concevoir leurs propres paramètres de topologie et de sécurité. Il permet également aux entreprises de faire une transition entre une infrastructure de service propriétaire à une infrastructure nuagique.

Cloud public

Dans un cloud public, les ressources du fournisseur de service sont offertes à la population. Un grand avantage pour les fournisseurs de services est de ne pas avoir à faire un investissement initial sur les infrastructures et donc le déplacement des risques. Toutefois, un tel type de cloud n’offre pas aux utilisateurs un grand contrôle sur les données, le réseau et les paramètres de sécurité.

Cloud hybride

Un cloud hybride est un mélange des modèles d’un cloud privé et d’un cloud public. Cette approche vise à contrer les limitations de chacune des architectures. Ce type de cloud offre davantage de flexibilité que les autres types. Ils permettent également un plus grand contrôle et un niveau de sécurité sur les données de l’application plus élevé que dans un cloud public. Finalement, un cloud hybride permet au client de déterminer la répartition des composantes venant de chacun des types de cloud selon ses besoins.

Quelques obstacles du cloud

1. Continuité et disponibilité du service

Une des craintes qu’éprouvent plusieurs entreprises se rapporte à la perte de l’accès au service et à leurs données en cas de panne du cloud. Dans ce cas, l’utilisation de plusieurs fournisseurs de cloud pourrait composer une solution.

2. Verrouillage des données

Dans un contexte de cloud hybride, il peut s’avérer complexe d’extraire des données stockées sur des cloud différents étant donné l’absence de standards entre ces environnements. Une solution à ce problème serait d’uniformiser les API afin que les développeurs puissent déployer facilement des services ou des données sur plusieurs fournisseurs de cloud.

3. Confidentialité et vérifiabilité des données

Les utilisateurs de cloud peuvent faire face à des menaces de sécurité provenant autant de l’intérieur que de l’extérieur du cloud. Alors que le fournisseur de service est responsable de la sécurité physique en déployant des pare-feu externes, les utilisateurs sont, quant à eux, responsables de la sécurité logicielle.

4. Engorgement sur le transfert des données

Les applications consomment de plus en plus de données. En tenant compte que le transfert d’un téraoctet coûte entre 100 et 150 $, le transfert de données peut rapidement devenir un problème. La solution pour éviter ces coûts élevés serait d’expédier des disques durs ou même des ordinateurs aux fournisseurs de services.

5. Imprévisibilité de la performance

Des machines virtuelles peuvent partager sans problème les mêmes mémoires et processus, mais pas le même réseau ou les mêmes entrées/sorties de disques. De ce fait, différentes instances EC2 varient plus en fonction des performances des entées/sorties que par rapport à celles de la mémoire principale.

6. Stockage évolutif

Le stockage persistant peut représenter un défi quant à la création d’un système de stockage qui répondra aux attendes des programmeurs par rapport à la durabilité, la haute disponibilité des services et la capacité à gérer et à interroger les données, tout en les combinant aux avantages du cloud d’évoluer à la demande.

7. Bogues dans les systèmes distribués à grande échelle

Un des défis présents dans le cloud se rapporte à l’élimination des erreurs dans ces réseaux distribués à grande échelle. Dans des circonstances normales, ces bogues ne peuvent pas être reproduits à l’intérieur de plus petites configurations. Le débogage doit donc s’effectuer à l’échelle des serveurs de productions.

8. Mise à l’échelle rapide

Dans le cloud, il est possible de s’adapter automatiquement à un changement d’ordre de grandeur de la demande, en particulier pour maintenir ses fonctionnalités et ses performances en cas de forte demande. Or, malgré cette possibilité, certains développeurs n’hésitent pas à laisser fonctionner des machines toute la nuit afin de réduire à zéro leur temps de démarrage. Une solution simple à ce phénomène consisterait à créer un instantané des configurations de ces machines.

9. Problèmes liés au partage des systèmes

La mauvaise conduite d’un client peut nuire à la réputation des autres clients qui partagent le même environnement virtuel. Pour contrer ces problèmes, il faut mettre en place des services de protection de la réputation similaire à ceux offerts par les services de courrier électronique.

10. Licences de logiciels

Plusieurs fournisseurs de cloud dépendaient en partie à l’origine sur des logiciels open source parce que la concession de licences des logiciels commerciaux se mariait mal à l’informatique à la demande. Pour faire face à cette tendance, les sociétés de logiciels se sont adaptées aux nouvelles réalités amenées par l’avènement du cloud. Par exemple, Microsoft et Amazon ont adopté le concept d’utilisateur-payeur. 

Faut-il passer au cloud computing?

Le cloud est en pleine évolution. Il serait risqué de ne pas considérer les avantages économiques associés à ce concept. Il faut toutefois les balancer avec les obstacles à l’intégration. Les efforts d’adaptation des architectures technologiques sont souvent trop importants pour justifier les gains. Par contre, certains aspects du développement peuvent être supportés par nos crédits d’impôt à la RS&DE ce qui peut réduire le risque d’une telle démarche.

Publié dans Crédits d'impôt, Mieux Comprendre, Mieux Agir!, Technologie | Marqué , , | Laisser un commentaire

Vers une définition commune de l’informatique dématérialisée

Cloud computingLe cloud, ou l’informatique dématérialisée, est depuis quelques années intégré dans le vocabulaire commun du monde informatique. Malgré la popularité de ce concept, il en demeure que les fondements sont souvent mal compris.  Ce billet vise à positionner l’informatique dématérialisée afin de partager les obstacles et les possibilités d’avancements associés à ce concept.

Les caractéristiques du cloud.

De façon simplifiée l’informatique dématérialisée est un modèle Informatique qui permet un accès facile et à la demande par le réseau à un ensemble partagé de ressources informatiques configurables (serveurs, stockage, applications et services) qui peuvent être rapidement provisionnées et libérées par  un minimum d’efforts de gestion ou d’interaction avec le fournisseur du service. NIST (National Institude of Standards and Technology) définit le concept à l’aide de cinq caractéristiques essentielles :

  1. Accès aux services par l’utilisateur à la demande.
  2. Accès réseau large bande.
  3. Réservoir de ressources (non localisées).
  4. Redimensionnement rapide (élasticité).
  5. Facturation à l’usage.

On constate que, par rapport aux services offerts par les centres de données, trois aspects sont nouveaux :

  • L’apparence de ressources infinies, accessibles à la demande, sans la nécessité de planifier les besoins d’avance.
  • L’élimination des engagements à long terme. Cette caractéristique permet de partir avec une petite infrastructure et d’augmenter à la demande.
  • La possibilité de payer à l’utilisation basée sur des engagements à court terme (par exemple, heure par CPU).

Les modèles de services

Les modèles de services sont également différents en fonction du fournisseur. On distingue trois modèles :

  • Infrastructure as a Service : IaaS offre un contrôle semblable à une infrastructure physique, mais avec la flexibilité d’augmenter au besoin. Amazon EC2 est certainement l’IaaS la plus populaire actuellement.
  • Platform as a service : PaaS permet d’éliminer les dépenses et la complexité liées à l’évaluation, l’achat, la configuration et la gestion de tout le matériel et les logiciels nécessaires à la conception d’applications sur mesure. Dans ce mode, les clients créent leurs logiciels en utilisant les outils et/ou des librairies du fournisseur. Google appEngine constitue un exemple de PAAS.
  • Software as a service : SaaS se réfère à une application accessible par le biais d’Internet, donc, qui n’a pas besoin d’être installée à l’interne sur le poste ou sur le serveur. Facebook, YouTube ou Salesforce.com composent quelques exemples de SaaS.

Fin de la première partie. Surveillez le blogue dans les prochains jours pour la suite. Dans le deuxième volet de cet article, j’aborderai les différents modèles de déploiement ainsi que quelques-uns des obstacles qui leurs sont associés.

Crédit photo : freedigitalphotos.net

Publié dans Innovations, Mieux Comprendre, Mieux Agir!, Technologie | Marqué , | 1 commentaire

Une industrie florissante grâce aux crédits d’impôt!

videogamePlusieurs secteurs du domaine des multimédias sont en pleine expansion au Québec, grâce à la créativité et à l’innovation des entreprises d’ici et grâce aux incitatifs mis en place par le gouvernement, comme le credit d’impôt à la production de titres multimédias. L’un de ces secteurs est l’industrie des jeux vidéo.

Crédit : freedigitalphotos.net

Petite histoire de l’industrie au Québec

L’histoire de l’industrie des jeux vidéo au Québec commence dans les années 1980 alors que plusieurs entreprises de l’industrie des multimédias œuvrant dans le domaine cinématographique s’installent dans la province. Une d’entre elles est la compagnie montréalaise Softimage qui, en 1986, conçoit les animations 3D dans les films Jurassic Park. Cette implantation des entreprises du multimédia continue entre les années 1990 et 1995 et plusieurs avancées dans le domaine du numérique sont faites, comme le premier dessin interactif au monde créé par MegaToon en 1991.

Voulant encourager l’arrivée d’autres entreprises du même genre ainsi que l’innovation, le gouvernement du Québec instaure le crédit d’impôt à la production de titres multimédias, le 9 mai 1996. Un an plus tard, à Québec, un premier jeu « fait au Québec » pour la console PlayStation, « Jersey Devil », est créé. Plusieurs autres entreprises du multimédia sont créées dans les années suivantes comme, Sarbakan (1998), Beenbox (2000) et Humagade (2003), toutes installées dans la Capitale Nationale.

Montréal n’est pas en reste. En effet, pendant ce temps, la Société de développement de Montréal étudie le projet de la Cité du Multimédia, projet grâce auquel Ubisoft s’installe au Québec en 1997 avec pour objectif de créer 800 emplois en 10 ans, mais avec une explosion de sa croissance, ses objectifs ont vite été atteints. Le succès d’Ubisoft a permis d’attirer en 2003 la compagnie Electronic Arts qui s’installe à son tour dans la métropole. Dans les dernières années, plusieurs petites entreprises se sont créées avec l’idée de développer un seul jeu, et elles se sont diversifiées par la suite. C’est le cas de Red Barrels qui a dernièrement créé le jeu d’horreur « Outlast ».

Aujourd’hui, les entreprises dans le domaine du jeu vidéo emploient plus de 8500 personnes. Le Québec est devenu un pôle important de création de jeux vidéo, reconnu dans le monde entier. Cette renommée internationale devrait se consolider encore plus grâce à l’annonce du gouvernement québécois, le 30 septembre 2013, de bonifier le crédit d’impôt pour la production de titres multimédias dans le but d’augmenter la compétitivité des entreprises installées au Québec.

Source : macarriereenjeux.com

Les différents domaines

Il existe trois principaux secteurs dans l’industrie du jeu vidéo :

  • le développement de jeux. Les entreprises spécialisées en développement de jeux vidéo se concentrent souvent sur la création d’un certain type de jeux vidéo afin de réduire les coûts de fonctionnement;
  • la conception de logiciel;
  • l’assurance qualité (répertorier les anomalies ou les erreurs dans un jeu vidéo. Les entreprises œuvrant dans ce secteur s’assurent que le produit fini est de qualité et qu’il respecte les exigences des fabricants).

Les emplois

Les emplois dans le domaine du jeu vidéo au Québec se situent dans la vaste majorité dans un domaine en particulier : 87%  des emplois dans le secteur du jeu vidéo se trouvent dans le développement des jeux vidéo, 2% dans le développement de logiciels et de soutient technique et 8% dans les tests-assurances qualité. C’est aussi le cas avec la répartition géographique des emplois. En effet, 73% des emplois liés aux jeux vidéo se trouvent sur l’île de Montréal, 18% sont à Québec et 9% sont dans les autres régions de la province.

Les emplois qui leur sont reliés demandent divers degrés d’étude :

L'industrie du jeu vidéo en croissance pour 2013

Les domaines dans lesquels un diplôme universitaire est le plus demandé par les employeurs sont : la gestion de projet (72%), la programmation (47%) et le support à la production (44%). Les employeurs préfèrent que les candidats possèdent un diplôme ou une formation spécialisée seulement en conception de jeux (40%). La possession d’un diplôme collégial est favorisée en production artistique (47%), en contrôle de qualité (63%) et est ex æquo avec la formation universitaire en support à la production (44%). Ce n’est qu’en contrôle de la qualité d’un diplôme secondaire est demandé (26%).

Les entreprises issues de l’industrie des jeux vidéo employaient, en 2012, 8979 personnes. Les perspectives d’emploi dans le domaine du jeu vidéo pour 2013 sont de l’ordre de 5 à 10% de croissance alors qu’il était de 15% en 2012

Quel avenir pour l’industrie du jeu vidéo?

L’industrie du jeu vidéo aux Québec a un bel avenir. Avec l’avènement des téléphones intelligents et des tablettes, les supports se diversifient, le marché s’agrandit et une clientèle beaucoup plus variée qu’auparavant  apparaît. Ces avancées technologiques nécessitent le développement de nouveaux types de jeux et les industries québécoises peuvent maintenant compter sur ces nouvelles possibilités pour consolider leur place dans le monde numérique et continuer à innover c’est le cas de Mira Lupa qui a créé une application basée sur la réalité augmentée disponible sur iOS et Android.

Au final, c’est en grande partie grâce à l’instauration par le gouvernement québécois du crédit d’impôt à la production de titres multimédia que le Québec peut se targuer d’être l’un des pôles de l’industrie du jeu vidéo.

Publié dans Crédits d'impôt, Mieux Comprendre, Mieux Agir!, Technologie | Marqué , | Laisser un commentaire

Application mobile multiplateforme, HTML 5 trône-t-il?

Les choix d’affaires sont actuellement ceux qui influencent les choix technologiques pour un développement mobile d’une application. Mais au-delà des décisions d’affaires, l’aspect technique du développement mobile avec HTML 5 peut-il être un facteur décideur? L’état des technologies de développement mobile requiert encore des avancées technologiques pour la portabilité multiplateforme. Malgré ce constat, qu’en est-il du choix HTML 5?

Une application pour les dispositifs mobiles, conçue à l’aide du standard HTML 5, possède des avantages importants quant à la portabilité multiplateforme et surtout les coûts de développement. Par contre, la question la plus importante : Comment reproduire l’expérience d’une application native avec HTML 5 exécutée dans un navigateur?

Les développeurs sont devant des obstacles technologiques et aussi des complexités qui ne se présenteraient pas dans un contexte natif. Par exemple, un navigateur présente ses composantes importantes comme la barre d’adresse tandis qu’une application aimerait bien ne pas la présenter. Aussi, l’accès aux périphériques des dispositifs n’est pas une mince tâche, voire une tâche impossible à même le conteneur navigateur, alors comment faire?

Des cadres applicatifs ont été développés comme JQuery mobile, Sencha Touch, Dojo mobile, mais le travail d’intégrer ces technologies avec HTML 5 n’est pas simple, et cela s’ajoute dans les risques et incertitudes technologiques. Avec le contexte des écrans tactiles et des gesticules dignes d’un maestro, l’expérience utilisateur demeure interprétée dans le navigateur sans un accès complet aux API des différents systèmes d’exploitation. Ce qui empêche toute forme de reproduction du comportement natif.

Le HTML 5 est-il le standard attendu pour tous les développements mobiles? Seule, l’évolution de ce standard ne suffira pas, il faudra assouplir les contraintes des navigateurs et les barrières d’accès aux API de bas niveau des systèmes d’exploitation. Par contre, dans un monde où l’espionnage, le piratage, le vol d’identité et de données sont des situations existantes et de plus en plus surveillées pour être éliminées, comment dissiper les obstacles technologiques sans simplifier ces situations?

Le HTML 5 devra évoluer pour régner dans le domaine des applications mobiles. Il y aura tout de même des prétendants pour tenter de dissiper les obstacles technologiques, est-ce que ce sera vous? Bonne démarche expérimentale!

Crédit photo : Wikipédia

Publié dans Mieux Comprendre, Mieux Agir!, Technologie | Marqué | 2 commentaires

Application mobile – native, web ou hybride ?

ApplicationsLe titre de ce billet est en fait la question que l’on doit se poser dès le début du développement d’une application mobile. Au-delà des impacts sur le temps et le budget, le choix de l’une de ces trois options doit tenir compte des contraintes technologiques de chacune et des fonctions que vous voulez donner à vos utilisateurs.

État de l’art dans le développement d’applications mobiles

Le monde du dispositif mobile est contrôlé par quatre systèmes d’exploitation : Apple IOS, Google Android, Blackberry OS et Windows Phone. Chaque système d’exploitation possède des fonctions distinctives pour leurs utilisateurs. L’accès à toutes ces fonctions se fait par l’entremise d’interfaces de programmation (API) graphique, de bas-niveau et de haut-niveau.

Les interfaces graphiques sont des librairies de contrôles graphiques distinctives au système d’exploitation. Les interfaces de bas-niveau permettent d’interagir directement avec les ressources matérielles du dispositif mobile (clavier, caméra, GPS, microphone, etc.). Les interfaces de haut-niveau sont en fait des accès aux applications intégrées au système d’exploitation (courriel, calendrier, contact, téléphone, SMS, etc.) ainsi qu’aux services nuagiques offerts par les manufacturiers.

Application native

Une application native est un fichier contenant du code binaire spécifique au système d’exploitation du dispositif mobile ciblé. Le code est en mesure d’accéder à toutes les fonctions rendues disponibles par les API de ce système d’exploitation dont celles qui le distinguent de ses concurrents auprès des utilisateurs. Ce sont ces interfaces de programmation spécifiques qui rendent la portabilité d’une application entre les différentes plateformes très complexe.

Application web

La venue du HTML5 a permis la transition de la « page web » vers les applications Internet riches exécutées sur les fureteurs des dispositifs mobiles. Au niveau de ce type d’application, on distingue deux approches : (1) le furetage mobile où le site Internet a été optimisé pour reconnaître le dispositif mobile et d’y adapter son contenu et (2) le site Internet mobile dont le rendu est identique à celui d’une application native.

Le haut degré de portabilité d’une application web est basé sur le fait que la plupart des fureteurs mobiles utilisent le même moteur de rendu (WebKit) pour le HTML5. Cependant, cette forte portabilité a ses limitations : elle doit être exécutée à l’intérieur d’un fureteur (lui-même une application native) dont les accès aux interfaces du système d’exploitation ne sont pas homogènes d’une plateforme à l’autre. En fait, les systèmes d’exploitation restreignent grandement ces accès pour l’instant.

Application hybride

Tel que le nom l’indique, il s’agit d’une approche combinant les deux types d’application précédents. L’application hybride est une application native qui contient un engin de rendu HTML qui fait le pont entre l’application web et les interfaces de programmation du dispositif mobile. Le pont le plus utilisé est « PhoneGap », une libraire ouverte. La plus grande lacune de cette approche est que le contenu n’est disponible que lorsqu’une connexion Internet est présente (comme une application web).

La portabilité des applications mobiles est encore un sujet nécessitant des avancées technologiques. Si votre entreprise désire mettre en marché plusieurs de celles-ci, une approche structurée de recherche et développement sera peut-être nécessaire.

Crédit photo : freedigitalphotos.net

Publié dans Mieux Comprendre, Mieux Agir!, Technologie | 3 commentaires

Cloud : La météo infonuagique!

Cloud ComputingLes entreprises cherchent de plus en plus à ce que leur infrastructure informatique soit exploitée dans l’informatique dématérialisée (informatique en nuage). Ces entreprises se heurtent à plusieurs questions sur la qualité du service, la performance et la sécurité pour en nommer quelques-unes. Ces question composent des incertitudes sur l’offre. Les entreprises de service en TI doivent quant à elles faire face aux incertitudes technologiques pour intégrer les applications dans le nuage. Je vous propose donc un survol de ces incertitudes en guise de prévision météo technologique!

Après l’explosion des applications Web pour répondre aux besoins d’un trafic important, on parle beaucoup aujourd’hui des applications qui se trouvent dans le nuage. Les plateformes telles qu’Amazon EC2 et Windows Azure offrent des modes d’hébergement applicatif où il est possible de démarrer une machine virtuelle Linux ou Windows pour installer votre application.

Une l’application simplement déménagée vers l’infonuage pourra-t-elle bénéficier du support à bas niveau?

Dans l’infonuage, il est possible de s’adapter à un changement d’ordre de grandeur de la demande, en particulier pour maintenir ses fonctionnalités et ses performances en cas de forte demande. Par exemple, la mémoire distribuée offre une capacité de traitement disponible sur demande et la réalisation de calculs en parallèle. Par contre, pour pouvoir profiter des avantages du nuage, il faut que votre application soit architecturée ou développée en conséquence. Ce qui soulève alors l’incertitude suivante : doit-on rénover ou reconstruire une application patrimoniale?

Une application dans l’infonuage pourra-t-elle profiter d’une architecture SOA?

Une des forces qu’a apportées l’informatique en nuage consiste en l’architecture orientée services (SOA), qui est destinée à devenir une méthode standard de développement d’applications hautement évolutives. L’idée directrice derrière l’architecture SOA consiste à diviser une application afin que ses composants puissent être exécutés sur plusieurs serveurs en tant que services distincts.

L’interopérabilité de ces services distincts peut, toutefois, composer un obstacle au développement d’une architecture SOA. En effet, l’absence de standard dans les communications, dans les protocoles de transport des messages et dans la structure des messages fait en sorte que des mécanismes d’abstraction ou de réécriture des applications deviennent obligatoires. Sans ces mécanismes, il faudrait construire une couche d’abstraction ou bien reconstruire différemment l’application. Dans tout autre cas, l’application pourrait se trouver isolée des possibilités liées à une architecture SOA.

La gestion des données dans le nuage peut aussi composer un obstacle pour une architecture. Beaucoup d’applications patrimoniales requièrent la notion de persistance de données. Néanmoins, en l’absence de système de gestion de base de données relationnel dans le nuage, l’accès aux données devient alors source de goulot d’étranglement dans le cadre de l’évolutivité. Le même phénomène peut survenir si l’application SOA utilise les données de session.

Lorsqu’une application est développée, il peut arriver qu’elle devienne très couplée avec le système d’exploitation dans lequel elle évolue. Dans un contexte d’applications SOA, ce couplage peut nuire au caractère évolutif de leur architecture. Les développeurs logiciels tenteront alors de découpler leur solution afin de la rendre plus flexible dans le nuage. Cette voie est complexe, car elle exige la conception d’un pont de communication qui permettra l’interaction avec plus d’un nuage tout en évitant d’être lié à leurs fonctionnalités. Or, la quantité de nuages peut être parfois trop importante et vous empêchera d’aller vers d’autres plateformes virtuelles.

Bref…

Sur ces quelques incertitudes, une application doit considérer et privilégier une architecture basée sur des standards ouverts pour mieux s’intégrer et bénéficier de l’infonuage. Ce ne sera, cependant, pas toujours évident de prévoir ce qui se présentera et comment cela se présentera. Vos incertitudes d’aujourd’hui ne seront pas les mêmes que celles de demain tout comme la météo!

Crédit photo : freedigitalphotos.net

Publié dans Mieux Comprendre, Mieux Agir!, Technologie | 2 commentaires