La magie de BigQuery ne cesse de s’épanouir dans son jardin luxuriant d’IA et de ML. Avec des ajouts comme le modèle TimesFM, la génération de données structurées par le biais de LLM et l’analyse de contribution, BigQuery promet de transformer votre façon de gérer les données. Est-ce que ces outils révolutionnaires suffisent à faire de vous le roi de l’analyse ? Decouvrons cela.
Un aperçu du modèle TimesFM pour les prévisions
Si vous pensiez que la prévision de l’avenir se résumait à consulter une boule de cristal ou à croiser les doigts en espérant que les étoiles s’alignent, détrompez-vous. Avec BigQuery et son modèle TimesFM, la prévision s’offre un petit lifting technologique digne des plus grands salons de beauté de la Silicon Valley. Raysonnons un peu autour de ce joyau : TimesFM n’est pas seulement une belle promesse de prévisions précises, mais un véritable jeu d’enfant pour les data scientists. On s’y jette comme un enfant dans une piscine de bonbons.
Pour faire simple, TimesFM (Time Series Factorization Machine) transforme votre manière de voir les séries temporelles. Imaginez un rigolo qui jongle habilement avec différents facteurs pour produire des prévisions d’une souplesse inouïe. En gros, il sait dire « demain, il va pleuvoir » et même s’autoriser un petit « et je prédis que tu vas avoir besoin de ton parapluie », tout en se penchant avec élégance sur des données historiques. Un vrai virtuose, ce modèle !
Voici comment cela fonctionne dans un petit extrait de code, que vous allez apprécier comme un bon vieux chocolat noir :
SELECT
expected_price
FROM
ML.FORECAST(MODEL `project.dataset.timesfm_model`,
STRUCT(30 AS horizon,
0.1 AS confidence_level))
Ce petit bijou vous permet de prédire la demande pour les 30 jours à venir, avec un niveau de confiance qui ferait pâlir un médium en fin de carrière. En utilisant la fonction AI.FORECAST, vous pouvez dire adieu aux approximations hasardeuses et accueillir des prévisions affûtées, prêtes à se mesurer à tous vos KPI avec l’assurance d’un chat tombé sur ses pattes.
Pour couronner le tout, ce modèle pré-entraîné ne demande qu’à être utilisé comme une calculatrice de poche lors d’examen de maths : il est facile à déployer, accessible et adapté à une multitude de cas d’usage. Que vous gériez un parc d’attractions ou un service de livraison de sushis, vous aurez entre les mains une solution qui sait jouer la carte de la précision tout en gardant l’aplomb. Et si vous vous baladiez un peu par ici : vous découvrirez que les prévisions, c’est devenu du gâteau.
Alors, prêts à mettre une touche de magie mathématique dans vos prévisions ?
La génération de données structurées avec les LLM
Si vous pensiez que les données non structurées étaient destinées à rester dans un coin sombre du grand manoir des données comme un cousin qui ne paye jamais sa part de pizza, il est temps de repenser votre vision du monde. Grâce aux LLM (Modèles de Langage de Grande Taille), BigQuery à décider de prendre le balai et de faire le ménage, et ce, avec une efficacité surprenante. Imaginez un majordome qui ne rirait jamais de vos blagues de mauvais goût, mais qui, en revanche, est capable d’organiser votre bibliothèque de manière impeccable, sans que vous n’ayez à lever le petit doigt.
BigQuery AI se révèle tout à fait capable d’extraire et de structurer ces chaotiques montagnes de données qui traînent dans vos fichiers. Ce qui était autrefois une gageure technologique devient une promenade. Vous pouvez utiliser la fonction AI.GENERATE_TABLE pour transmuter des données non structurées en une table bien rangée dans BigQuery, comme si vous aviez enfin réussi à faire plier votre pantalon pour un entretien d’embauche. Voici comment ça fonctionne :
SELECT *
FROM AI.GENERATE_TABLE(
MODEL `your_dataset.your_model`,
OPTIONS (
input_data = `SELECT * FROM dataset.raw_data`,
output_table = `dataset.structured_table`
)
);
Dans cet exemple, les données en vrac de `dataset.raw_data` se métamorphosent en une table structurée que l’on pourrait presque qualifier de chef-d’œuvre. Les LLM analysent les motifs, tirent des leçons et, finalement, apportent un semblant d’ordre là où le chaos était roi. Remarquez la finesse : chaque colonnes de données grouillantes se voit attribuer une place, un sens, un souci de l’esthétique qui ferait pâlir un décorateur d’intérieur.
Imaginez pouvoir créer des métriques à partir de commentaires clients hétéroclites ou extraire des entités clés à partir de documents disparates, le tout en un clin d’œil. Bien sûr, cela suppose que les données soient suffisamment claires pour ne pas ressembler à un charabia d’Arthur à 2 heures du matin, mais bon, la technologie fait des miracles (et des miracles, je ne suis pas sûr que ce soit du gros bon sens).
Pour en savoir plus sur cette transformation magique des LLM, vous pouvez explorer ces avancées fascinantes.
Fonctions LLM : une approche plus flexible
Les nouvelles fonctions LLM de BigQuery, c’est un peu comme les chaussettes à rayures dans un jardin de roses : on ne s’y attend pas, mais cela fait toute la différence. Ces petites perles d’inférence vous permettent d’exploiter des modèles de langage massifs directement dans vos requêtes SQL, un vrai cadeau du ciel pour les amateurs de data qui s’ennuient à mort avec de simples agrégations.
Imaginez un peu : vous disposez d’une base de données qui regorge d’informations, mais vous devez en extraire des narrations qui se tiennent et qui font briller vos statistiques. Oh, vous pourriez bien écrire des dissertations sur chaque entrée, mais pourquoi se fatiguer quand BigQuery est capable de le faire à votre place ? Ces fonctions permettent non seulement de générer du texte intelligent mais aussi de dénicher des spécificités à l’aide de l’intelligence artificielle. On pourrait presque dire que BigQuery fait pennés ; certaines affirment qu’il est devenu meilleur que certaines personnes que vous avez côtoyées lors de vos études.
Avec ces fonctions :
- TEXT_GENERATION : Imaginez créer des descriptions de produits à la vitesse de la lumière, du style « Ce widget est tellement performant qu’il pourrait lui-même proposer un café lors de vos réunions. »
- TYPED_EXTRACT : Pour les têtes pensantes des bases de données, cette fonction permet d’extraire des informations typées spécifiques comme des dates ou des montants financiers. Idéal pour que vos comptables arrêtent de vous faire des crises de nerfs avec leurs « Tu ne comprends toujours pas ? »
Voici une petite illustration de ces fonctions en action :
SELECT
GENERATE_TEXT(TEXT_GENERATION('Décrivez le dernier produit lancé ou une offre spéciale.', 50)) AS produit_description
FROM
produits;
Avec cette simple requête, vous pourriez transformer de l’herbe en or, ou du moins en quelque chose qui ressemble un peu à de l’or, tout en faisant rire la concurrence. Ajoutez à cela un bon vieux lien vers les dernières avancées, et vous voilà à la pointe de l’absurdité méthodologique. En somme, que demander de plus que de choisir LLM comme votre nouveau meilleur ami dans le monde froid et robotisé de l’analyse de données ?
L’analyse de contribution : comprendre les dynamiques commerciales
Ah, l’outil d’analyse de contribution de BigQuery ! Un joyau poli par la science des données et doté d’une capacité incroyable à transformer des chiffres insipides en vérités éclatantes. Tel un garagiste qui répare une voiture avec une brosse à dents, cet outil dézingue les variations de métriques commerciales en offrant une vue d’ensemble de ce qui cloche dans votre horloge à profits. Mais ne vous méprenez pas, la mécanique fine de votre entreprise n’a pas besoin de l’horloge bien réglée du voisin ; elle doit comprendre qui, quoi, et pourquoi, amène le fric sur la table.
Pour les littéraires dans l’âme, la dynamique commerciale ressemble à un roman où chaque chapitre a son importance. Avec l’analyse de contribution, chaque variation devient un signal plutôt qu’un simple bruit de fond. Que vous soyez un amateur de haïku ou un archer moderne dans une forêt d’indicateurs, il est crucial de savoir ce qui tire la corde de vos résultats.
Voici comment procéder :
CREATE OR REPLACE MODEL `votre_projet.votre_dataset.votre_modele`
OPTIONS(model_type='linear_reg') AS
SELECT
variable_1,
variable_2,
...,
target_variable
FROM
`votre_projet.votre_dataset.votre_table`;
Vous avez ici un exemple d’une requête conçue pour créer un modèle de régression linéaire, qui vous aidera à comprendre comment différents attributs influencent votre variable cible. Pensez-y comme à une enquête policière : chaque indicateur est un suspect, et vous devez déterminer qui est innocent et qui mérite d’être inculpé. Dans cette histoire, les coefficients que vous obtiendrez feront office d’indice, destinés à juger du poids de chaque acteur dans le drame économique que vous tentez de résoudre.
Explorez les résultats de votre modèle avec un soin méticuleux – c’est là que le vrai meurtre (c’est-à-dire la clé des insights) se déroule. Vous découvrirez des trésors inattendus sur ce qui fait vibrer votre business, qu’il s’agisse d’une promotion éphémère ou d’une météo capricieuse ruinant vos barbecues de fin de saison.
Alors, armez-vous de patience, d’un bon café noir, et lancez-vous dans l’exploration des contributions. Après tout, analyser, c’est un peu comme pêcher en haute mer : parfois, on remonte de vraies saloperies, mais les plus belles prises peuvent faire toute la différence. Et si vous souhaitez approfondir le sujet, je vous recommande cette lecture éclairante, qui pourrait éveiller votre curiosité. Qui sait ? Cela pourrait même transformer votre vision du monde des données… ou au moins agrandir votre bibliographie.
Conclusion
Les innovations récentes dans BigQuery ML marquent un tournant : entre prévisions précises avec TimesFM et une souplesse inédite dans la génération de données, vous êtes armés pour affronter la réalité dynamique des données. Que ce soit pour une compréhension approfondie de vos métriques ou pour générer des insights en temps réel, BigQuery reste l’allié incontournable des analystes modernes.
FAQ
Quels sont les avantages du modèle TimesFM ?
Il permet des prévisions précises sans nécessiter de formation ou d’ajustement sur vos données, ce qui le rend extrêmement accessible.
Comment fonctionne la génération de données structurées avec LLM dans BigQuery ?
La fonction AI.GENERATE_TABLE permet d’extraire des informations structurées à partir de données non structurées, simplifiant ainsi le traitement des données.
Quelles sont les nouvelles fonctions LLM dans BigQuery ?
Les nouvelles fonctions d’inférence LLM permettent une manipulation plus flexible et expressive des données, utilisables dans diverses clauses SQL.
En quoi consiste l’analyse de contribution de BigQuery ?
C’est un outil qui aide à identifier les facteurs clés derrière les variations des métriques commerciales, facilitant ainsi la prise de décisions éclairées.
Est-il facile d’utiliser ces nouvelles fonctionnalités ?
Oui, BigQuery a conçu ces outils pour être intégrés facilement dans vos flux de travail habituels, permettant aux utilisateurs de tirer parti de l’IA sans difficulté.
Sources
Google Cloud; What’s new with BigQuery AI and ML?
https://cloud.google.com/blog/products/data-analytics/bigquery-adds-new-ai-capabilities
⭐ Analytics engineer, Data Analyst et Automatisation IA indépendant ⭐
- Ref clients : Logis Hôtel, Yelloh Village, BazarChic, Fédération Football Français, Texdecor…
Mon terrain de jeu :
- Data Analyst & Analytics engineering : tracking avancé (GTM server, e-commerce, CAPI, RGPD), entrepôt de données (BigQuery, Snowflake, PostgreSQL, ClickHouse), modèles (Airflow, dbt, Dataform), dashboards décisionnels (Looker, Power BI, Metabase, SQL, Python).
- Automatisation IA des taches Data, Marketing, RH, compta etc : conception de workflows intelligents robustes (n8n, App Script, scraping) connectés aux API de vos outils et LLM (OpenAI, Mistral, Claude…).
- Engineering IA pour créer des applications et agent IA sur mesure : intégration de LLM (OpenAI, Mistral…), RAG, assistants métier, génération de documents complexes, APIs, backends Node.js/Python.






