Pourquoi l'IA n'est pas la seule solution : comment s'attaquer à l'approche de la recherche axée sur l'IA ?

Dans cet article, nous tenterons d'analyser en profondeur les moyens d'opposer des arguments de fond à la pratique de l'IA d'abord, en nous appuyant sur des informations, des idées et des données tirées d'une littérature plus large.

Η Intelligence artificielle est l'un des domaines technologiques les plus ambitieux et les plus passionnants depuis plusieurs années. La fascination exercée par la capacité d'un système informatique à "apprendre" à partir de données, à formuler des décisions ou même à résoudre des problèmes complexes semble infinie. De nombreux experts estiment que l'innovation en matière d'IA (intelligence artificielle) peut véritablement révolutionner la recherche, les entreprises et tous les aspects de notre vie. Si l'on ajoute à cela l'amélioration constante de la puissance de calcul, les ordinateurs les plus avancés sont ceux qui sont les plus performants. Algorithmes d'IA et la volonté expansive des universités et des entreprises d'investir dans des systèmes promettant l'intelligence artificielle.

Cependant, malgré le fait que le développement de l'intelligence artificielle progresse rapidement, la recherche sur l'IA n'est pas la seule forme de recherche dont nous devrions nous préoccuper. Aujourd'hui, il est de plus en plus courant d'adopter la fameuse approche "AI-first" de la recherche, où presque tous les problèmes sont abordés à partir d'un modèle ou d'un système d'IA apprentissage automatiquecomme s'il s'agissait d'une voie à sens unique pour tout défi scientifique ou technologique. Bien que cette tendance semble d'abord positive, en raison de l'enthousiasme suscité par la Applications de l'IA L'utilisation de l'intelligence artificielle, qui améliore les processus et produit des résultats utiles, comporte également de sérieux risques. Une confiance excessive dans une seule technologie - même une technologie aussi prometteuse que l'IA - peut conduire à un manque d'utilisation d'autres méthodologies, à une vision unidimensionnelle de l'innovation scientifique et, dans certains cas, à une détérioration de l'esprit critique.

Dans cet article, nous tenterons d'analyser en profondeur les moyens d'opposer des arguments de fond à la pratique de l'IA d'abord, en nous appuyant sur des informations, des idées et des données tirées de la littérature générale, ainsi que de l'article source de Smashing Magazine (vous pouvez consulter le texte intégral en anglais en cliquant sur le lien à la fin de l'article). Bien que ce matériel contienne de multiples perspectives utiles, il n'est en aucun cas destiné à diaboliser l'IA. L'objectif est plutôt de préciser que la monopolisation du discours scientifique et de la stratégie commerciale par l'IA nécessite une évaluation minutieuse, une réflexion critique et l'étude permanente d'autres approches. C'est la seule façon de garantir une évolution multidimensionnelle de l'innovation, non pas basée sur des modes superficielles, mais sur une base épistémologique substantielle.

Historique de l'IA et origines de la stratégie "AI-first

Le concept moderne d'IA remonte au milieu du XXe siècle, lorsque des scientifiques de premier plan tels qu'Alan Turing se demandaient si les machines pouvaient "penser". Dans les décennies qui ont suivi, la recherche autour de l L'intelligence artificielle dans la recherche Avec l'avènement des réseaux neuronaux, de l'apprentissage profond et de l'accès facile à de vastes quantités de données via l'internet, l'IA a connu une résurgence sans précédent. Les entreprises technologiques ont investi d'énormes capitaux dans les infrastructures et le personnel, dans le but d'exploiter les avantages de l'IA. apprentissage automatique et des algorithmes avancés.

C'est de cette cosmogonie qu'est né le concept de l'approche "AI-first". Ce terme est devenu largement connu lorsque les géants du logiciel ont annoncé qu'ils allaient transformer l'ensemble de leurs opérations, de leurs plateformes et de leurs services en gardant l'IA à l'esprit. Chaque nouveau produit, chaque nouvelle recherche, commencerait par se demander comment l'IA peut apporter la solution. Cela a entraîné une croissance considérable : des systèmes de reconnaissance vocale pour les smartphones aux moteurs de recommandation avancés, en passant par les services de vente en ligne qui s'appuient sur des algorithmes prédictifs. La dynamique a été (et reste) explosive, si l'on se souvient des développements récents en matière de modèles linguistiques ou d'applications de reconnaissance d'images.

Toutefois, cette croissance rapide s'est accompagnée de phénomènes de simplification excessive : de nombreux articles scientifiques et propositions de recherche commençaient directement par une solution d'IA, sans envisager d'autres solutions. En substance, une "idéologie" s'est formée selon laquelle l'IA est la meilleure, voire la seule, approche scientifique. Cette primauté a ignoré, voire négligé, de nombreuses autres méthodologies qui pourraient être mieux adaptées à des problèmes spécifiques ou qui pourraient fonctionner de manière complémentaire avec l'IA. Dans le contexte plus large de la science, il s'agit là d'un monolithe inquiétant.

Les principales critiques de l'approche "AI-first

Pour s'opposent à l'approche de l'IA d'abordIl ne suffit pas d'exprimer une méfiance générale à l'égard de l'IA. Ce qu'il faut, c'est une approche structurée et raisonnée qui reconnaisse à la fois les avantages et les faiblesses des algorithmes d'IA. Examinons quelques-uns des points les plus fondamentaux qui peuvent constituer l'"arsenal" des arguments :

  1. Une focalisation unidimensionnelleLorsque nous partons d'un problème et que nous cherchons immédiatement à "charger" un système d'intelligence artificielle ou un système d'information sur la santé, nous ne pouvons pas nous contenter d'un seul système. Algorithmes d'IA comme solution, nous négligeons souvent les méthodologies telles que l'analyse statistique classique, les modèles actuariels, les approches qualitatives ou même les techniques de simulation plus "traditionnelles". La méthodologie de recherche en IA est puissante, mais elle n'est pas une panacée.
  2. Sous-estimation du facteur humainL'enthousiasme pour le pouvoir de l'apprentissage automatique peut conduire à une sous-estimation de l'intuition humaine, des connaissances empiriques et des paramètres sociaux qui ne sont souvent pas faciles à saisir dans les ensembles de données. Tout comme l'innovation de l'IA triomphe dans la reconnaissance des formes, les humains peuvent discerner des détails dans le contexte qui ne sont pas accessibles à un algorithme.
  3. Risques et abus de l'IALes acteurs de la réglementation et des académies internationales expriment des craintes sur des questions telles que IA éthiqueL'IA est un outil d'aide à la décision et à la prise de décision, mais aussi un outil d'aide à la décision et à la prise de décision. Lorsque nous investissons dans une approche unique (l'IA d'abord) sans envisager d'autres solutions, nous risquons d'adopter des systèmes susceptibles de perpétuer la discrimination ou de provoquer des troubles sociaux.
  4. Manque de diversité dans la recherche scientifiqueLa science : L'un des enseignements les plus fondamentaux de la science est que la diversité et les différentes perspectives favorisent la découverte. Si tous les fonds de recherche sont consacrés à des projets d'intelligence artificielle, d'autres disciplines ou méthodes sont délaissées. Cela ne réduit pas seulement le progrès global, mais peut également conduire à des améliorations plus lentes et plus superficielles dans le domaine de l'IA lui-même, puisque l'interaction interdisciplinaire est absente.
  5. Simplification à outrance de la pensée humaineL'IA telle qu'elle fonctionne aujourd'hui est basée sur des modèles mathématiques et souvent sur des modèles statistiques. Bien que les algorithmes soient devenus très performants pour des tâches spécifiques, ils sont encore loin d'une "intelligence générale". La monopolisation de la recherche par l'approche "IA d'abord" peut créer des idées fausses sur ce qu'est l'intelligence humaine et sur la manière dont elle peut être représentée dans des modèles informatiques.
  6. Problèmes d'explicabilité (Explainability)Le réseau neuronal : L'un des principaux problèmes qui se posent dans de nombreuses applications de l'IA est la difficulté de comprendre ses "décisions". Les réseaux neuronaux complexes sont souvent tellement surdéveloppés que même leurs créateurs ne peuvent expliquer en détail chaque étape du processus, surtout en temps réel. Dans la recherche scientifique, l'interprétation des résultats est aussi importante que le résultat lui-même ; si nous ne pouvons pas expliquer comment nous sommes parvenus à une conclusion, la validité et l'utilité scientifique de cette conclusion sont remises en question.

Ces points montrent pourquoi il peut être important d'être critique à l'égard de l'approche "AI-first". Ils ne signifient pas que nous devrions cesser de financer ou d'encourager la recherche sur l'IA. Ils soulignent plutôt la nécessité de s'ouvrir à des perspectives plus larges tout en conservant une bonne variété d'outils théoriques et pratiques.

Stratégies pratiques pour contrer la perception de l'IA

Pour ceux qui souhaitent présenter une critique ciblée et convaincante de la stratégie de l'IA d'abord, il existe des modes d'argumentation spécifiques qui peuvent renforcer leur argumentation. La communauté scientifique ne bénéficiera pas de cris et de débats dogmatiques, mais de positions logiques et informées. Quelques stratégies pratiques sont présentées ci-dessous :

  1. Comparaison avec les méthodes traditionnellesSi un problème de recherche peut être résolu de la même manière (ou mieux) par des techniques statistiques classiques ou par des méthodes de simulation, mettez-le en évidence. Il se peut qu'une solution algébrique très simple ou un modèle éprouvé soit beaucoup plus clair et moins coûteux qu'un système d'intelligence artificielle nécessitant une énorme puissance de calcul.
  2. Mettre en évidence les points de défaillanceLa plupart des études sur l'IA présentent les résultats positifs (success stories), tandis que les résultats négatifs restent généralement dans l'ombre ou ne bénéficient pas de la même publicité. Nous recherchons et mettons en évidence des exemples où l'algorithme a "échoué" parce que les données étaient incomplètes ou biaisées. Ces histoires peuvent illustrer en pratique les L'impact de l'IA sur la société lorsqu'il n'y a pas de diligence raisonnable.
  3. Mettre l'accent sur la créativité humaineLa créativité humaine, l'intuition et la connaissance empirique sont des vertus propres à l'esprit humain. Un système d'IA, même avec des algorithmes qui simulent la pensée humaine, n'a pas de véritable conscience ou volonté. En sous-estimant la pensée humaine, nous risquons de transformer la recherche scientifique en un exercice routinier fondé sur une foi aveugle dans les données.
  4. L'accent est mis sur la transparence et l'explicationLa critique de la tendance à la primauté de l'IA peut être dirigée vers la question de l'explicabilité. Des structures, des méthodes et des protocoles sont nécessaires pour encourager le développement d'algorithmes "transparents", ou du moins accessibles à l'exploration décisionnelle. Si la promotion de l'IA ne prend pas au sérieux le besoin de résultats interprétables, elle est incomplète.
  5. Coopération interdisciplinaireLa plupart des projets d'IA les plus ambitieux ne concernent pas seulement l'informatique, mais aussi la médecine, la sociologie, la psychologie, l'économie et d'autres domaines. Notre critique peut porter sur le fait que les scientifiques de l'IA doivent intégrer des disciplines plus larges dans leur travail pour s'assurer que les modèles et les applications répondent à des besoins réels sans nuire ou ignorer des paramètres importants.
  6. Mise en évidence du cadre réglementaireLes institutions et les lois sont souvent à la traîne par rapport aux développements technologiques. Ici, la critique peut mettre en évidence la nécessité d'élaborer et de mettre en œuvre un système d'information sur les droits de l'homme. Cadre réglementaire de l'IA qui protège la vie privée, garantit un traitement équitable et ne permet pas l'utilisation opaque d'algorithmes dans des domaines critiques (tels que les décisions judiciaires ou les évaluations de recrutement). L'absence d'un tel cadre constitue un risque sérieux alors que l'approche "AI-first" prévaut partout.

Ces stratégies de réfutation visent à ne pas rester à un niveau théorique. Elles proposent des approches pratiques qui peuvent élargir le débat et forcer ceux qui embrassent l'exclusivité de l'IA à reconnaître ses limites et ses risques.

L'importance de la diversité dans la recherche scientifique

Lorsqu'une nouvelle technologie promet des changements radicaux, il est normal que la communauté scientifique se laisse emporter par l'enthousiasme. C'est d'autant plus vrai lorsque l'on voit les résultats tangibles des applications de l'IA dans des domaines tels que la santé (par exemple, la détection précise des tumeurs), l'industrie, les transports (véhicules autonomes) et bien d'autres. L'idée tant vantée que l'IA peut optimiser presque tout séduit encore plus les investisseurs et les chercheurs.

Cependant, la science ne se développe pas à partir d'une seule idée. Elle se développe principalement par le biais d'un dialogue constant, de l'expérimentation, de la remise en question et de la synthèse de différentes théories et méthodes. Η Une approche fondée sur l'IA risque d'évincer d'autres disciplines scientifiques ou, à tout le moins, de supposer que la solution à chaque problème consiste à charger plus de puissance de calcul et plus de données. Cela peut conduire à une perception généralisée selon laquelle, puisque nous avons les "big data" et l'IA, nous n'avons besoin de rien d'autre.

C'est une grave erreur. Une compréhension plus approfondie d'un phénomène résulte souvent de la synergie de différentes sciences. Dans l'étude du changement climatique, par exemple, l'IA est précieuse pour l'analyse des données satellitaires. Cependant, sans la climatologie, la géophysique, la biologie et leurs disciplines respectives, il est impossible d'interpréter les résultats ou de proposer des solutions durables. Il en va de même en médecine, où les systèmes de diagnostic basés sur l'IA doivent être soutenus par des médecins, des biologistes, des psychologues et de nombreux autres professionnels qui ont une compréhension plus approfondie des systèmes humains.

En outre, le IA éthique et le débat sur les implications sociales nécessite la contribution de juristes, de philosophes, de sociologues et d'experts politiques. Une focalisation excessive sur les seuls aspects technologiques (par exemple, comment optimiser un réseau neuronal) peut occulter les implications plus larges. Le pluralisme scientifique garantit que la solution ou la méthode sera évaluée sous de nombreux angles - scientifique, social, éthique, économique.

Au sein même de l'informatique, l'IA n'est qu'une discipline parmi d'autres. Il existe de nombreux autres domaines, tels que la théorie informatique, les bases de données, les architectures de systèmes, la cybersécurité, etc. qui sont autant de moteurs de l'innovation. Si nous négligeons ces domaines, nous risquons de nous retrouver avec des applications d'IA très "intelligentes", mais avec des infrastructures inadéquates ou des bases de sécurité faibles, mettant en danger les données et les systèmes sur lesquels repose l'IA elle-même.

Guide étape par étape pour "prendre en charge" un argumentaire sur l'IA

Souvent, lors de discussions ou de présentations de propositions de recherche, le scénario suivant se produit : Quelqu'un prétend que la solution au problème "X" est un modèle d'IA ou, plus radicalement, que nous n'avons plus besoin de méthodes classiques car l'approche "AI-first" est suffisante. Comment pouvons-nous nous positionner de manière à inspirer le respect et la confiance ?

  1. Écouter et comprendreAvant de réfuter, il est bon de comprendre ce que l'autre partie propose. Quel est le cœur de l'argument ? Existe-t-il déjà des données, des résultats, des études de cas ?
  2. Étudier le problèmeL'évaluation de l'état du problème : Demandez à quel stade se trouve le problème. Est-il exploratoire, diagnostique ou prédictif ? L'IA est mieux adaptée aux tâches de prédiction ou de classification, mais n'est pas toujours aussi efficace dans les situations d'interprétation qui nécessitent des relations de causalité compréhensibles.
  3. Demandez des alternativesDans les bonnes propositions scientifiques, il y a toujours la question "Existe-t-il une autre façon d'aborder le problème ? Cela permet de voir si le partisan de l'IA d'abord a envisagé d'autres méthodes ou s'il ne fait que suivre la "mode".
  4. Insistez sur la transparenceLes questions suivantes peuvent être posées : demandez une explication sur la manière dont le système d'intelligence artificielle prend ses décisions. Si vous obtenez des réponses du type "Nous ne savons pas exactement, mais cela fonctionne", soulignez qu'une méthode scientifique exige des interprétations et une reproductibilité. Cela est d'autant plus important si l'IA est utilisée dans des domaines où une erreur peut être coûteuse (par exemple, le diagnostic médical).
  5. Évaluer le volume et la qualité des donnéesSi l'approche est basée sur big datail faut que la qualité des données correspondantes soit disponible. Si les données sont biaisées, incomplètes ou inappropriées, le modèle peut tirer des conclusions erronées. La critique peut être particulièrement sévère.
  6. Donnez des exemples d'échecs ou de faux positifs/négatifs.Si vous connaissez des cas où un modèle d'IA apparemment prometteur a échoué, dites-le nous. Souvent, la mise en lumière d'exemples où le système commet des erreurs flagrantes est plus forte qu'une interrogation théorique.
  7. Composer, ne pas critiquerLa réponse la plus efficace n'est pas de dire "l'IA ne sert à rien", ce qui n'est pas le cas. Vous pouvez plutôt reconnaître que l'IA a du potentiel, mais souligner qu'elle a besoin d'approches complémentaires ou alternatives, d'un contrôle humain, d'une équipe pluridisciplinaire, etc.

Ce guide étape par étape présente une méthode qui n'est pas seulement défensive, mais qui tente une fermentation productive. Dans de nombreux cas, les partisans de l'IA d'abord peuvent percevoir les lacunes ou les faiblesses de leur approche grâce à une critique calme et explicative.

Paramètres éthiques et sociaux : Bien au-delà de la technologie

La recherche sur l'IA n'est pas un domaine fermé qui ne concerne que les programmeurs et les scientifiques des données. Elle a des implications sociales, éthiques et politiques directes. Dans une société constamment numérisée, où nos moindres faits et gestes peuvent être enregistrés, l'utilisation indiscriminée de l'intelligence artificielle est une menace pour la santé publique. Algorithmes d'IA peut mettre en péril la vie privée, les droits de l'homme et la justice sociale.

  • Biais dans les donnéesLes modèles d'apprentissage automatique apprennent à partir des données disponibles. Si celles-ci sont historiquement biaisées, l'algorithme risque de reproduire ou même de renforcer les mêmes biais. Par exemple, les systèmes qui évaluent les biographies peuvent injustement biaiser certains groupes sociaux ou raciaux parce que les données historiques de recrutement étaient déjà biaisées.
  • Liberté de volonté et de manipulationLa logique de l'IA dans la publicité, les plateformes de médias sociaux et la recherche sur Internet peut manipuler les préférences des gens d'une manière dont ils ne se rendent même pas compte. De sérieuses questions sont soulevées quant à la liberté de nos choix lorsque tout ce qui nous entoure est conçu pour nous orienter dans certaines directions (par exemple, l'appât à clics, les publicités personnalisées).
  • Transparence dans le secteur publicLorsque les gouvernements ou les organismes publics adoptent des systèmes d'IA (par exemple pour l'identification des personnes, le traitement des demandes, etc.), la question se pose de savoir si le citoyen sait et comprend comment les décisions sont prises. Une approche axée sur l'IA qui ne prévoit pas de contrôles de transparence appropriés peut violer le principe démocratique de responsabilité.
  • Cadre réglementaire de l'IALe monde de l'IA : Partout dans le monde, les législateurs s'efforcent de comprendre et de réglementer les nouveaux développements. En Europe, par exemple, des efforts ont été faits avec le règlement général sur la protection des données (RGPD), et un débat est en cours sur l'imposition de règles spécifiques à l'IA. Des voix critiques attirent l'attention sur le fait qu'un cadre réglementaire adéquat ne devrait pas être basé sur des simplifications excessives ou des réactions technophobes, mais sur des approches approfondies qui tiennent compte à la fois de l'innovation en matière d'IA et de la protection des droits de l'homme.

En bref, encourager sans cesse la réflexion sur l'IA sans contrôle adéquat revient à placer une grande partie de l'organisation sociale dans des "boîtes noires" qui risquent de ne pas fonctionner de manière équitable, ni avec une transparence totale.

L'avenir de l'IA : Défis et opportunités

Malgré les critiques formulées à l'encontre de l'approche "AI-first", personne ne conteste le fait que l'IA est un élément essentiel de l'économie européenne. avenir de l'intelligence artificielle elle promet d'être passionnante. La capacité des systèmes informatiques à traiter des volumes de données dépassant les capacités humaines et à découvrir des corrélations complexes est sans aucun doute révolutionnaire. De la prévision des épidémies à la création de traitements personnalisés, les applications potentielles de l'IA sont infinies et pourraient améliorer radicalement la qualité de vie.

En même temps, l'enthousiasme doit coexister avec le réalisme. Si nous voulons vraiment que l'IA soit une force pour le bien, la recherche qui l'entoure ne peut pas être unidimensionnelle. Elle doit être polyphonique, contrôlée, collaborative, réglementée. Les scientifiques des données, les analystes, les ingénieurs en logiciel tireront le meilleur parti de leur collaboration avec des biologistes, des sociologues, des économistes, des juristes et des experts en éthique. Ce n'est qu'ainsi que l'on parviendra à un développement équilibré.

En outre, l'IA étant de plus en plus intégrée dans notre vie quotidienne (assistants vocaux, recommandations sur les plateformes de divertissement, maisons intelligentes, véhicules autonomes, etc.), le besoin d'éducation et de compréhension de la part du grand public est d'une importance capitale. L'humanité doit disposer d'une culture numérique de base et être capable d'évaluer de manière critique le fonctionnement des systèmes d'IA. Sinon, elle se retrouvera dans une situation désavantageuse, où l'"élite" des experts et des entreprises technologiques déterminera unilatéralement le cours des événements.

Dans ce contexte, la critique et la remise en question de l'idéologie de l'IA n'est pas un obstacle. Au contraire, elles constituent des freins et des contrepoids qui, en fin de compte, améliorent la qualité des applications de l'IA et protègent la société des échecs ou des abus. Le dialogue, la documentation et les désaccords sains sont essentiels à la poursuite de la recherche sur l'IA. la recherche en intelligence artificielle de s'épanouir, sans aboutir à des impasses.

Comment défendre une approche plus intégrée

L'approche "l'IA d'abord" peut sembler être une solution innovante et rapide pour de nombreux défis actuels, mais en adoptant une approche unidimensionnelle, nous passons à côté de l'essence de la science, qui est la diversité de la recherche, la pensée critique et la collaboration interdisciplinaire. La capacité de l'IA à identifier des modèles et à produire des résultats utiles ne fait aucun doute, mais on peut se demander si cette capacité est suffisante pour résoudre tous les problèmes.

L'équilibre entre les développement de l'intelligence artificielle et d'autres méthodologies est le moyen le plus sûr de parvenir à un développement scientifique et technologique durable. L'IA offre des outils, mais elle ne doit pas devenir la seule "clé" de tous les "mystères". Nous avons besoin de recherche classique, de fondements théoriques, d'expériences sur le terrain, de sciences sociales, de créativité humaine, de compréhension et, surtout, d'un code éthique pour l'utilisation responsable de l'IA. Intelligence artificielle.

Par conséquent, si nous voulons s'opposer à un discours privilégiant l'IA dans un débat scientifique ou une réunion d'affaires, pour autant que nous insistions sur des arguments clairs et concrets dans les domaines de la transparence, de l'explicabilité, de la diversité de la recherche, de l'utilisation éthique, des implications sociales et de la possibilité d'approches alternatives. Nous ne disons pas "non" à l'IA ; nous disons "oui, mais avec des limites et une complémentarité".

De plus, lorsque notre public ou nos collègues entendent que l'IA peut avoir des conséquences négatives, il ne faut pas leur donner l'impression que l'IA n'est pas utile. Au contraire, nous insistons sur le fait que l'IA est déjà l'un des outils les plus puissants du présent (et, évidemment, de l'avenir). Toutefois, ce pouvoir doit être placé dans un cadre plus large d'éthique scientifique, d'assurance de la qualité des données, de protection des droits de l'homme et de développement de structures réglementaires qui sauvegardent les intérêts de la société et de la science.

Le "frein" que nous mettons à la culture incontrôlée de l'IA n'est pas un frein au progrès ; c'est le tampon qui rend le progrès correctement ciblé, démocratique et crédible. Et, en fin de compte, c'est peut-être la meilleure façon pour l'Union européenne d'atteindre ses objectifs. L'intelligence artificielle dans la recherche et des applications pratiques : grâce à un dialogue ouvert, critique et diversifié qui laisse la place à toutes les idées novatrices, et pas seulement aux algorithmes.

Source : https://smashingmagazine.com/2025/03/how-to-argue-against-ai-first-research/

Bulletin d'information

Saisissez votre adresse e-mail ci-dessous pour vous abonner à notre lettre d'information

Remplissez le formulaire de contact pour recevoir votre offre.

20%

Remise sur tous nos forfaits
Aenean leo ligulaconsequat vitae, eleifend acer neque sed ipsum. Nam quam nunc, blandit vel, tempus.