Affichage des articles dont le libellé est BIG DATA. Afficher tous les articles
Affichage des articles dont le libellé est BIG DATA. Afficher tous les articles

dimanche 24 avril 2016

Tellspec : l'intelligence prédictive dans le secteur alimentaire - Alimentation Numérique

TellSpec Inc. se présente comme une société du BigData (le moyen) au service l'intelligence prédictive (la fonction) dans le secteur alimentaire. Cette entreprise proposera très bientôt aux mangeurs un dispositif lui permettant d'identifier dans un produit ou un plat un grand nombre d'ingrédients et de calculer sa composition nutritionnelle. Ce dispositif est composé d'un scanner de poche doté d'un spectromètre proche infra rouge, d'une base de données et d'algorithmes numériques localisés dans le Cloud, et d'une application téléphonique afin de visualiser les résultats de l'analyse spectrale et transmettre les données collectées par le scanner vers le module de diagnostic dans le cloud.

La mission de TellSpec consiste à accompagner la "Clean Food Revolution" par l'information en proposant aux mangeurs des informations non habituellement disponibles sur les étiquettes actuelles. Le mangeur allergique pourra donc s'assurer que le produit qu'il s'apprête à consommer ne contient pas les allergènes auxquels il est sensible. La base de données (TellSpecopedia) contient plusieurs milliers de ingrédients, de nutriments, contaminants et produits alimentaires. Le spectre de chacun est relativement spécifique. Le spectre d'un produit est composé à partir du spectre de chacune de ses composantes. Les techniques analytiques permettent d'extraire du spectre de l'aliment les différentes composantes imputables aux ingrédients.

TellSpec propose ce dispositif également aux chefs et restaurateurs qui souhaiteraient informer leurs clients de la composition nutritionnelle de leurs plats.

La possibilité, demain, d'étiquettes riches (contenant un grand nombre d'informations accessibles par les technologies digitales comme un smartphone) devrait susciter un vif intérêt dans ces technologies spectroscopiques auprès des entreprises alimentaires qui pourraient ainsi apporter à certains des consommateurs des informations qui leur seraient utiles et qui ne sont pas aujourd'hui accessibles sur les étiquettes actuelles. Ils pourraient ainsi élargir leur marché. En effet, une personne souffrant d'une allergie est toujours encline à éviter de consommer un produit si elle n'est pas informée de l'absence des allergènes auxquels elle est sensible (ou susceptibles d'être sensible). Elle évite donc de consommer un grand nombre de produits qu'elle aurait pu consommer si elle avait été informée de leur composition précise. Ces stratégies d'évitement sont couteuses pour les entreprises agroalimentaires qui perdent aujourd'hui une partie substantielle de leur clientèle faute de disposer des moyens de l'informer. Les dispositifs tels que TellSpec n'agissent qu'après l'achat. Ils ne devraient pas substantiellement affecter les stratégies d'évitement.

Une entreprise telle que TellSpec apparait comme un fournisseur potentiel de technologies numériques analytiques aux entreprises agroalimentaires qui souhaiteraient garantir l'absence de composant indésirable dans leurs produits pour certains consommateurs. Un scanner industriel à la sortie de la chaine de production pourrait alors servir à capter le spectre du produit et l'adresser pour analyse à une entreprise comme TellSpec. Celle-ci adresserait en  retour un code permettant de concevoir une étiquette intelligente et riche. Dans tous les cas, le consommateur recherchera probablement une garantie plutôt qu'une simple information sans garantie. Aujourd'hui, une partie de l'information du consommateur consiste à dire qu'un produit est susceptible de contenir des traces de fruits à coques...  ce qui engendre une stratégie d'évitement. Demain, on pourra dire qu'aucune trace n'a été détectée, et probablement ensuite, de garantir l'absence même de l'ingrédient. Cette démarche pourra être effectuée à tous les stades de la filière et accroitre la maitrise de la qualité. Des spectromètres de mobiles pourront être utilisés pour scanner les équipements à la recherche de traces.
  

Par ailleurs, la connaissance des stratégies d'évitement mises en oeuvre par les consommateurs offre la possibilité aux entreprises d'ajuster la composition de leurs produits pour satisfaire aux attentes de leurs consommateurs. Combien de consommateurs sont aujourd'hui enclins à éviter les produits avec du gluten, ceux avec des ingrédients à base de sésame ou des akènes de fraises, etc.


jeudi 25 février 2016

La génétique du big data : un risque pour le futur ? Dotons nos machines de résilience collective.

Comme vous probablement, je vois la percée dans le monde agricole de nouvelles solutions numériques et les bénéfices qu'elles peuvent apporter à leurs utilisateurs. Plus particulièrement, les gains d'efficience productive : la bonne action, dosée de manière optimale et au bon moment. Cependant, il convient de s'interroger sur les effets de bord de ces algorithmes et sur "la diversité de leur génétique". Le machine learning est souvent au coeur de ces dispositifs d'optimisation. Cette approche repose sur l'historique. Jour après jour les algorithmes essaient de s'affiner à partir des situations, des actions qui ont été menées et des résultats de ces actions. Ainsi dans une même situation, les actions sous-optimales à un instant donné seront progressivement gommées et les résultats maximisés. Le marchine learning fonctionne sur le principe d'un thermostat intelligent que s'adapterait parfaitement à la température extérieure et son évolution future pour apporter au moindre coût le confort thermique aux résidents d'un logement ou d'un bureau selon leur souhait de température optimale.

Nous sommes coutumiers de ces processus de sélection. Les agronomes ont, depuis des années, sélectionné les variétés végétales et les races animales les plus productives, les plus adaptées aux conditions du moment. Cette adaptation a pour conséquence une certaine forme d'appauvrissement de la diversité génétique. C'est ainsi que plus de 2000 platanes d'une grande proximité génétique ont été plantés en bordure du canal du midi. Malheureusement, ils sont aujourd’hui atteints d'une maladie qui semble incurable. Certains esprits, probablement à juste titre, ont considéré qu'avoir planté il y a plusieurs décennies maintenant les arbres les plus performants de l'époque, et donc des arbres d'une grande proximité génétique, a été une erreur. La diversité génétique aurait pu être une meilleure solution en regard de la situation actuelle. On ne refait pas l’histoire, mais on doit s’en inspirer et en tirer les leçons.  

L'analogie entre un algorithme et un arbre est certes loin d'être parfaite. Elle est peut-être même incorrecte. Cependant, nous devons nous interroger sur la possibilité de ces algorithmes à proposer des actions optimales même dans des conditions extrêmes (marginalement observées) ou des situations inattendues. Pour qu'ils soient en mesure de le faire, il faut, compte tenu de leur fonctionnement actuel, qu'ils soient soumis à ces types de situations et en nombre suffisant. C’est ainsi qu'ils apprennent. Cependant, la caractéristique principale de ces conditions est justement leur faible fréquence, voir même leur absence dans l’historique. On peut donc anticiper des réactions algorithmiques inappropriées dans ces conditions marginales. La génétique des algorithmes va jouer aussi un rôle important. Si dans ces conditions tous les algorithmes déployés dans l’ensemble des systèmes agricoles sont identiques, les réponses, bonnes ou mauvaises, seront probablement identiques. Comme les algorithmes doivent être confrontés à une diversité des couples ( contexte, action), leur degré d'apprentissage sera extrêmement limité, insignifiant. Si l'on anticipe, avec le changement climatique, un accroissement de situations inattendues, il pourrait être judicieux de s'assurer que l'ensemble des algorithmes déployés sont suffisamment différents pour proposer une diversité de solutions, certaines bonnes et d'autres moins bonnes, pour ainsi apprendre de cette diversité. Ils devront également être alors en mesure d'échanger leurs résultats pour apprendre plus rapidement les uns des autres, une forme d'apprentissage collectif entre machines. 

Une piste complémentaire consiste à mettre en expérimentation, c’est-à-dire au laboratoire, des situations extrêmes, puis de multiplier les réponses à ses situations. Cela permettra de nourrir les algorithmes d'un ensemble d'informations riches et suffisamment variées pour permettre aux machines à apprendre le mieux possible. Ici aussi, la dimension collective sera primordiale.

Poursuivons quelques instants ! Un second danger peut affecter nos machines : la cybercriminalité ! Un moyen de détruire un système productif est de s'attaquer à son système de pilotage. Certaines intrusions sont difficiles à détecter, par exemple, si le système touché fonctionne encore, mais de manière sous-optimale. Là aussi, la diversité génétique des machines devrait pouvoir jouer un rôle ! La collaboration entre machines pourrait aussi s'avérer particulièrement prometteuse, chacune transmettant ses prédictions à une autre pour s'assurer ainsi de son bon fonctionnement

mercredi 19 mars 2014

Du "Big Data" au "Very Big Data"

Les superlatifs ne manquent jamais pour qualifier un phénomène. Il y a déjà le Big Data... C'est un sujet déjà bien discuté comme en témoigne le nombre des publications académiques (je vous invite à découvrir la vidéo dans laquelle mes collègues évoquent les enjeux du Big Data pour les entreprises.elle est également à la fin de ce billet) , les articles de presse, des séminaires et des propositions commerciales.  Le moteur de recherche de Google indique retrouver plus de 1 360 millions de liens en moins de 0,31 seconde.

À côté du "Big Data", il y a aussi le "Very Big Data". Le second n'est pas l'accroissement du premier ni en volume, ni en variété, ni en vitesse (pour reprendre le fameux, 3 V des aficionados du Big Data). Le Very Big Data diffère substantiellement du Big Data. Le premier est local et sa finalité est essentiellement l'efficience.  Les solutions dérivées du Big Data font la promesse d'apporter une solution la plus proche possible des besoins du client, d'un client. Vous ne recevrez donc plus de coupons sans intérêt pour vous ni d’appels téléphoniques inopinés d'un distributeur pour vous proposer un produit que vous avez déjà acheté quelques jours auparavant. Votre médecin (nutritionniste) pourra vous proposer un traitement  (un régime alimentaire) adapté à votre code génétique et il pourra l'adapter en temps réel aux réponses de votre corps... La réalité augmentée vous indiquera le restaurant du voisinage immédiat qui propose un menu conforme aux préconisations de la faculté et vous permettra de réserver votre place en un clic. Vous pourrez même partager, pour l'instant d'un repas, une table avec une personne qui apprécie les mêmes sujets de discussion que vous... (Aliénation ou bonheur ?)

Le "Very Big Data": c'est le "Big Data" appliqué (par exemple au "Big Data") mais plus généralement à n'importe quel thème. Car avec plus d'un 1 360 millions de liens sur internet il y a aussi de quoi "creuser" pour identifier, en particulier, les problématiques émergentes, les connexions, les implications du phénomène "Big Data".  Quelle entreprise est aujourd'hui est capable d'identifier, dans un univers d'informations complexe comme le web, les structures sémantiques sous-jacentes ? (Obtenir une réponse à cette question consiste probablement à étudier la liste des sociétés acquises par Google - suivre ce lien... ).

Appliqué au secteur agroalimentaire, par exemple, à l'industrie de la Viande, le Very Big Data permet d'identifier tous les thèmes associés à la production et la consommation de viande... C'est ainsi que l'on peut naviguer de viande à protéines, de protéines à insectes, d'insectes à législation, etc. Le Very Big Data permet de voir si et comment certains concepts prennent de l'importance et d'autres s'essoufflent. ... Le Very Big Data, c'est la promesse pour les entreprises de prendre la bonne direction, c'est leur  possible boussole stratégique dans la carte qui se dessine au futur !  Faut-il investir dans la production de viande synthétique ? Quelles sont les espèces animales dont le futur est prometteur et celles qui semblent condamnées sur l’autel du développement durable ?  etc. Les réponses à ces questions ne sont-elles pas déjà dans le web ?  Mais où ?
  

Les carnets du blog les plus consultés

Membres