Guide de traduction SQL Teradata
Ce document décrit les similitudes et les différences de syntaxe SQL entre Teradata et BigQuery pour vous aider à planifier votre migration. Utilisez la traduction SQL par lot pour migrer vos scripts SQL de façon groupée, ou la traduction SQL interactive pour traduire des requêtes ad hoc.
Types de données
Cette section présente les équivalences entre les types de données Teradata et BigQuery.
Teradata | BigQuery | Remarques |
---|---|---|
INTEGER |
INT64 |
|
SMALLINT |
INT64 |
|
BYTEINT |
INT64 |
|
BIGINT |
INT64 |
|
DECIMAL |
Utilisez la valeur Utilisez les types de données décimales paramétrés de BigQuery si vous devez appliquer des limites de chiffres ou d'échelles personnalisées (contraintes). Teradata vous permet d'insérer des valeurs de précision plus élevée en arrondissant la valeur stockée, mais conserve une haute précision des calculs. Cela peut entraîner un comportement inattendu en ce qui concerne les arrondis, par rapport à la norme ANSI. |
|
FLOAT |
FLOAT64 |
|
NUMERIC |
Utilisez la valeur Utilisez les types de données décimales paramétrés de BigQuery si vous devez appliquer des limites de chiffres ou d'échelles personnalisées (contraintes). Teradata vous permet d'insérer des valeurs de précision plus élevée en arrondissant la valeur stockée, mais conserve une haute précision des calculs. Cela peut entraîner un comportement inattendu en ce qui concerne les arrondis, par rapport à la norme ANSI. |
|
NUMBER |
Utilisez la valeur Utilisez les types de données décimales paramétrés de BigQuery si vous devez appliquer des limites de chiffres ou d'échelles personnalisées (contraintes). Teradata vous permet d'insérer des valeurs de précision plus élevée en arrondissant la valeur stockée, mais conserve une haute précision des calculs. Cela peut entraîner un comportement inattendu en ce qui concerne les arrondis, par rapport à la norme ANSI. |
|
REAL |
FLOAT64 |
|
CHAR/CHARACTER |
STRING |
Utilisez le type de données |
VARCHAR |
STRING |
Utilisez le type de données |
CLOB |
STRING |
|
JSON |
JSON |
|
BLOB |
BYTES |
|
BYTE |
BYTES |
|
VARBYTE |
BYTES |
|
DATE |
DATE |
BigQuery n'est pas compatible avec une mise en forme personnalisée semblable à celle qu'accepte Teradata avec DataForm dans SDF. |
TIME |
TIME |
|
TIME WITH TIME ZONE |
TIME |
Teradata stocke le type de données TIME au format UTC et vous permet de transmettre un décalage par rapport à l'heure UTC à l'aide de la syntaxe WITH TIME ZONE .
Le type de données TIME de BigQuery représente une heure indépendante de toute date ou de tout fuseau horaire. |
TIMESTAMP |
TIMESTAMP |
Les types de données TIMESTAMP de Teradata et BigQuery ont une précision de l'ordre de la microseconde (mais Teradata accepte les secondes intercalaires, contrairement à BigQuery).Les types de données de Teradata et BigQuery sont généralement associés à un fuseau horaire UTC (en savoir plus). |
TIMESTAMP WITH TIME ZONE |
TIMESTAMP |
Le type de données TIMESTAMP de Teradata peut être défini sur un fuseau horaire différent à l'échelle du système, par utilisateur ou par colonne (à l'aide de
WITH TIME ZONE ).Le type de données TIMESTAMP de BigQuery suppose que la valeur est UTC si vous ne spécifiez pas explicitement de fuseau horaire. Veillez à exporter correctement les informations de fuseau horaire (ne concaténez pas les valeurs DATE et TIME sans informations de fuseau horaire) afin que BigQuery puisse les convertir lors de l'importation. Sinon, vous pouvez également convertir les informations de fuseau horaire au format UTC avant de les exporter.BigQuery dispose du type de données DATETIME pour une abstraction entre le temps civil, qui n'affiche pas de fuseau horaire lors de la sortie, et TIMESTAMP , qui correspond à un moment précis qui affiche toujours le fuseau horaire UTC. |
ARRAY |
ARRAY |
|
MULTI-DIMENSIONAL ARRAY |
ARRAY |
Dans BigQuery, utilisez un tableau de structures, chaque structure contenant un champ de type ARRAY (pour en savoir plus, consultez la documentation BigQuery). |
INTERVAL HOUR |
INT64 |
|
INTERVAL MINUTE |
INT64 |
|
INTERVAL SECOND |
INT64 |
|
INTERVAL DAY |
INT64 |
|
INTERVAL MONTH |
INT64 |
|
INTERVAL YEAR |
INT64 |
|
PERIOD(DATE) |
DATE , DATE |
PERIOD(DATE) doit être converti en deux colonnes DATE contenant la date de début et la date de fin, de sorte qu'elles puissent être utilisées avec des fonctions de fenêtrage. |
PERIOD(TIMESTAMP WITH TIME ZONE) |
TIMESTAMP , TIMESTAMP |
|
PERIOD(TIMESTAMP) |
TIMESTAMP ,
TIMESTAMP |
|
PERIOD(TIME) |
TIME , TIME |
|
PERIOD(TIME WITH TIME ZONE) |
TIME , TIME |
|
UDT |
STRING |
|
XML |
STRING |
|
TD_ANYTYPE |
STRING |
Pour plus d'informations sur le casting des types de données, consultez la section suivante.
Mise en forme des types de données Teradata
Le langage SQL Teradata utilise un ensemble de formats par défaut pour afficher les expressions et les données des colonnes, ainsi que pour les conversions entre les types de données. Par exemple, un type de données PERIOD(DATE)
en mode INTEGERDATE
a le format par défaut YY/MM/DD
. Nous vous recommandons d'utiliser le mode ANSIDATE dans la mesure du possible afin de garantir la conformité avec ANSI SQL, et d'en profiter pour nettoyer les anciens formats.
Teradata permet l'application automatique de formats personnalisés à l'aide de la clause FORMAT
, sans modifier le stockage sous-jacent, en tant qu'attribut de type de données lorsque vous créez une table à l'aide du LDD ou dans une expression dérivée. Par exemple, une spécification de FORMAT
9.99
arrondit toute valeur FLOAT
à deux chiffres.
Dans BigQuery, cette fonctionnalité doit être convertie à l'aide de la fonction ROUND()
.
Cette fonctionnalité nécessite la gestion de cas spéciaux complexes. Par exemple, lorsque la clause FORMAT
est appliquée à une colonne NUMERIC
, vous devez tenir compte de règles d'arrondi et de mise en forme spéciales.
Une clause FORMAT
peut être utilisée pour caster implicitement une valeur epoch INTEGER
dans un format DATE
. Ou une spécification de FORMAT
X(6)
sur une colonne VARCHAR
tronque la valeur de la colonne. Vous devez donc la convertir en fonction SUBSTR()
. Ce comportement n'est pas compatible avec ANSI SQL. Par conséquent, nous vous recommandons de ne pas migrer les formats de colonnes vers BigQuery.
Si les formats de colonnes sont absolument obligatoires, utilisez des vues ou des fonctions définies par l'utilisateur (UDF).
Pour en savoir plus sur les formats par défaut utilisés par le langage SQL Teradata pour chaque type de données, consultez la documentation sur la mise en forme par défaut de Teradata.
Mise en forme des types d'horodatage et de date
Le tableau suivant récapitule les différences entre les éléments de mise en forme d'horodatages et de dates entre le langage SQL de Teradata et GoogleSQL.
Format Teradata | Description de l'élément Teradata | BigQuery |
---|---|---|
CURRENT_TIMESTAMP
|
Les informations TIME et TIMESTAMP dans Teradata peuvent avoir des informations de fuseau horaire différentes, définies à l'aide de WITH
TIME ZONE . |
Si possible, utilisez CURRENT_TIMESTAMP() , qui est au format ISO. Toutefois, le format de sortie affiche toujours le fuseau horaire UTC.
(En interne, BigQuery n'a pas de fuseau horaire.)Notez les détails suivants concernant les différences du format ISO. Le format de DATETIME repose sur des conventions de canal de sortie. Dans l'outil de ligne de commande BigQuery et la console BigQuery, il est mis en forme à l'aide d'un séparateur T conformément à la norme RFC 3339. Toutefois, dans Python et Java JDBC, un espace est utilisé comme séparateur.Si vous souhaitez utiliser un format explicite, utilisez FORMAT_DATETIME() , qui permet de caster une chaîne de manière explicite. Par exemple, l'expression suivante renvoie toujours un espace comme séparateur :CAST(CURRENT_DATETIME() AS STRING) Teradata accepte un mot clé DEFAULT dans les colonnes TIME pour définir l'heure actuelle (horodatage). Cela n'est pas utilisé dans BigQuery.
|
CURRENT_DATE |
Les dates sont stockées dans Teradata en tant que valeurs INT64 à l'aide de la formule suivante :(YEAR - 1900) * 10000 + (MONTH * 100) + DAY Les dates peuvent être mises en forme sous forme d'entiers. |
BigQuery possède un format DATE distinct qui renvoie toujours une date au format ISO 8601.DATE_FROM_UNIX_DATE ne peut pas être utilisé, car il repose sur le nombre de secondes écoulées depuis le 1er janvier 1970.Teradata accepte un mot clé DEFAULT dans les colonnes DATE pour définir la date actuelle. Cela n'est pas utilisé dans BigQuery.
|
CURRENT_DATE-3 |
Les valeurs de date sont représentées sous forme d'entiers. Teradata accepte les opérateurs arithmétiques pour les types de date. |
Pour les types de date, utilisez DATE_ADD() ou DATE_SUB() .BigQuery utilise des opérateurs arithmétiques pour les types de données suivants : INT64 , NUMERIC et FLOAT64 .
|
SYS_CALENDAR.CALENDAR |
Teradata fournit une vue pour les opérations d'agenda au-delà des opérations entières. | Non utilisé dans BigQuery. |
SET SESSION DATEFORM=ANSIDATE |
Définissez le format de date système ou de session sur ANSI (ISO 8601). | BigQuery utilise toujours la norme ISO 8601. Par conséquent, veillez à convertir les dates et heures Teradata. |
Syntaxe des requêtes
Cette section traite des différences de syntaxe des requêtes entre Teradata et BigQuery.
Instruction SELECT
La plupart des instructions SELECT
Teradata sont compatibles avec BigQuery. Le tableau suivant contient une liste de différences mineures.
Teradata | BigQuery | |
---|---|---|
SEL |
Conversion en SELECT . BigQuery n'utilise pas l'abréviation SEL . |
|
SELECT
|
Dans BigQuery, les colonnes ne peuvent pas faire référence à la sortie d'autres colonnes définies au sein de la même liste de sélection. Il vaut mieux déplacer une sous-requête dans une clause WITH .
WITH flags AS (
|
|
SELECT * FROM table
|
BigQuery n'utilise pas le prédicat logique ANY .La même fonctionnalité peut être obtenue en utilisant plusieurs opérateurs OR :SELECT * FROM table Dans ce cas, la comparaison de chaînes diffère également. Consultez la section Opérateurs de comparaison. |
|
SELECT TOP 10 * FROM table
|
BigQuery utilise LIMIT à la fin d'une requête au lieu de TOP n après le mot clé SELECT . |
Opérateurs de comparaison
Le tableau suivant présente les opérateurs de comparaison qui sont spécifiques à Teradata et doivent être convertis en opérateurs compatibles avec ANSI SQL:2011 utilisés dans BigQuery.
Pour en savoir plus sur les opérateurs dans BigQuery, consultez la section Opérateurs de la documentation BigQuery.
Teradata | BigQuery | Remarques |
---|---|---|
exp EQ exp2 exp IN (exp2, exp3)
|
exp = exp2 exp IN (exp2, exp3) Pour conserver une sémantique autre que ANSI pour NOT CASESPECIFIC , vous pouvez utiliser RTRIM(UPPER(exp)) = RTRIM(UPPER(exp2))
|
En cas de comparaison de chaînes pour en vérifier l'égalité, Teradata peut ignorer les espaces blancs de fin, tandis que BigQuery considère qu'ils font partie de la chaîne. Par exemple, 'xyz'=' xyz' est TRUE dans Teradata, mais FALSE dans BigQuery.Teradata fournit également un attribut de colonne
NOT CASESPECIFIC qui indique à Teradata d'ignorer la casse lors de la comparaison de deux chaînes. BigQuery prend toujours en compte la casse lors de la comparaison de chaînes. Par exemple, 'xYz' = 'xyz' est TRUE dans Teradata, mais FALSE dans BigQuery.
|
exp LE exp2 |
exp <= exp2 |
|
exp LT exp2 |
exp < exp2 |
|
exp NE exp2 |
exp <> exp2
|
|
exp GE exp2 |
exp >= exp2 |
|
exp GT exp2 |
exp > exp2 |
JOIN
conditions
BigQuery et Teradata acceptent les mêmes conditions JOIN
, ON
et USING
. Le tableau suivant contient une liste de différences mineures.
Teradata | BigQuery | Remarques |
---|---|---|
FROM A LEFT OUTER JOIN B ON A.date >
B.start_date AND A.date < B.end_date
|
FROM A LEFT OUTER JOIN (SELECT d FROM B JOIN
UNNEST(GENERATE_DATE_ARRAY(B.start_date, B.end_date)) d)
B ON A.date = B.date
|
BigQuery accepte les clauses JOIN d'inégalité pour toutes les jointures internes ou si au moins une condition d'égalité est spécifiée (=). En revanche, il n'accepte pas une seule condition d'inégalité (= et <) dans une jointure OUTER JOIN .
Ce type de construction est parfois utilisé pour interroger des plages de dates ou d'entiers.
BigQuery empêche les utilisateurs de créer par inadvertance des jointures croisées de grande taille.
|
FROM A, B ON A.id = B.id
|
FROM A JOIN B ON A.id = B.id
|
L'utilisation d'une virgule entre les tables dans Teradata équivaut à une jointure INNER JOIN , tandis que dans BigQuery, elle équivaut à une jointure CROSS JOIN (produit cartésien). Étant donné que la virgule dans l'ancien SQL de BigQuery est traitée comme un opérateur UNION , nous vous recommandons de rendre l'opération explicite pour éviter toute confusion.
|
FROM A JOIN B ON
(COALESCE(A.id , 0) = COALESCE(B.id, 0))
|
FROM A JOIN B ON
(COALESCE(A.id , 0) = COALESCE(B.id, 0))
|
Aucune différence pour les fonctions scalaires (constantes). |
FROM A JOIN B ON
A.id = (SELECT MAX(B.id) FROM B)
|
FROM A JOIN (SELECT MAX(B.id) FROM B)
B1 ON A.id = B1.id
|
BigQuery empêche les utilisateurs d'utiliser des sous-requêtes, des sous-requêtes corrélées ou des agrégations dans les prédicats de jointure. Cela permet à BigQuery d'exécuter les requêtes en parallèle. |
Casting et conversion des types de données
BigQuery propose des types de données moins nombreux, mais plus larges que Teradata, ce qui fait qu'il doit assurer un casting plus strict.
Teradata | BigQuery | Remarques |
---|---|---|
exp EQ exp2 exp IN (exp2, exp3)
|
exp = exp2 exp IN (exp2, exp3) Pour conserver une sémantique autre que ANSI pour NOT CASESPECIFIC , vous pouvez utiliser RTRIM(UPPER(exp)) = RTRIM(UPPER(exp2))
|
En cas de comparaison de chaînes pour en vérifier l'égalité, Teradata peut ignorer les espaces blancs de fin, tandis que BigQuery considère qu'ils font partie de la chaîne. Par exemple, 'xyz'=' xyz' est TRUE dans Teradata, mais FALSE dans BigQuery.Teradata fournit également un attribut de colonne
NOT CASESPECIFIC qui indique à Teradata d'ignorer la casse lors de la comparaison de deux chaînes. BigQuery prend toujours en compte la casse lors de la comparaison de chaînes. Par exemple, 'xYz' = 'xyz' est TRUE dans Teradata, mais FALSE dans BigQuery.
|
CAST(long_varchar_column AS CHAR(6))
|
LPAD(long_varchar_column, 6)
|
Le casting d'une colonne de caractères dans Teradata est parfois utilisé comme un moyen non standard et non optimal de créer une sous-chaîne complétée. |
CAST(92617 AS TIME)
92617 (FORMAT '99:99:99')
|
PARSE_TIME("%k%M%S", CAST(92617 AS STRING)) |
Teradata effectue beaucoup plus de conversions implicites de types de données et d'arrondis que BigQuery, qui est généralement plus strict et applique les normes ANSI.
(Cet exemple renvoie 09:26:17) |
CAST(48.5 (FORMAT 'zz') AS FLOAT)
|
CAST(SUBSTR(CAST(48.5 AS STRING), 0, 2) AS FLOAT64) |
Les types de données numériques et à virgule flottante peuvent nécessiter des règles d'arrondi spéciales lorsqu'ils sont appliqués avec des formats tels que les devises.
(Cet exemple renvoie 48) |
Consultez également les sections sur les opérateurs de comparaison et les formats de colonnes. Les comparaisons et la mise en forme des colonnes peuvent se comporter de la même manière que des castings de types de données.
Clauses QUALIFY
, ROWS
La clause QUALIFY
de Teradata vous permet de filtrer les résultats pour des fenêtrages.
Vous pouvez également utiliser une expression ROWS
pour la même tâche. Elles fonctionnent de la même manière qu'une condition HAVING
pour une clause GROUP
, qui limite la sortie de ce que l'on appelle dans BigQuery des fonctions de fenêtrage.
Teradata | BigQuery |
---|---|
SELECT col1, col2
|
La clause QUALIFY de Teradata avec une fonction de fenêtrage telle que ROW_NUMBER() , SUM() ,COUNT() et OVER PARTITION BY est exprimée dans BigQuery en tant que clause WHERE sur une sous-requête contenant une valeur d'analyse. Avec ROW_NUMBER() :SELECT col1, col2 Avec ARRAY_AGG , qui accepte des partitions plus grandes :
SELECT
|
SELECT col1, col2
|
SELECT col1, col2 Dans BigQuery, RANGE et ROWS peuvent être utilisés dans la clause de fenêtrage. Cependant, les clauses de fenêtrage ne peuvent être utilisées qu'avec des fonctions de fenêtrage telles que AVG() , et non avec des fonctions de numérotation telles que ROW_NUMBER() . |
Mot clé NORMALIZE
Teradata fournit le mot clé NORMALIZE
pour les clauses SELECT
afin de fusionner les périodes ou les intervalles qui se chevauchent en une seule période ou un seul intervalle englobant toutes les valeurs de période individuelles.
BigQuery n'accepte pas le type PERIOD
. Par conséquent, toute colonne de type PERIOD
dans Teradata doit être insérée dans BigQuery sous la forme de deux champs DATE
ou DATETIME
distincts, qui correspondent au début et à la fin de la période.
Teradata | BigQuery |
---|---|
SELECT NORMALIZE
|
SELECT
|
Fonctions
Les sections suivantes répertorient les correspondances entre les fonctions Teradata et leurs équivalents dans BigQuery.
Fonctions d'agrégation
Le tableau suivant met en correspondance les fonctions d'agrégation, d'agrégation statistique et d'agrégation approximative courantes de Teradata avec leurs équivalents dans BigQuery. BigQuery propose les fonctions d'agrégation supplémentaires suivantes :
ANY_VALUE
APPROX_COUNT_DISTINCT
APPROX_QUANTILES
APPROX_TOP_COUNT
APPROX_TOP_SUM
COUNTIF
LOGICAL_AND
LOGICAL_OR
STRING_AGG
Teradata | BigQuery |
---|---|
AVG |
AVG |
BITAND |
BIT_AND |
BITNOT |
Opérateur NOT (PAS) au niveau du bit (~ ) |
BITOR |
BIT_OR |
BITXOR |
BIT_XOR |
CORR |
CORR |
COUNT |
COUNT |
COVAR_POP |
COVAR_POP |
COVAR_SAMP |
COVAR_SAMP |
MAX |
MAX |
MIN |
MIN |
REGR_AVGX |
AVG( |
REGR_AVGY |
AVG( |
REGR_COUNT |
SUM( |
REGR_INTERCEPT |
AVG(dep_var_expression) - AVG(ind_var_expression) *
(COVAR_SAMP(ind_var_expression,
|
REGR_R2 |
(COUNT(dep_var_expression)* |
REGR_SLOPE |
- COVAR_SAMP(ind_var_expression, |
REGR_SXX |
SUM(POWER(ind_var_expression, 2)) -
COUNT(ind_var_expression) * |
REGR_SXY |
SUM(ind_var_expression * dep_var_expression) -
COUNT(ind_var_expression) |
REGR_SYY |
SUM(POWER(dep_var_expression, 2)) -
COUNT(dep_var_expression) |
SKEW |
Fonction définie par l'utilisateur personnalisée. |
STDDEV_POP |
STDDEV_POP |
STDDEV_SAMP |
STDDEV_SAMP,
STDDEV |
SUM |
SUM |
VAR_POP |
VAR_POP |
VAR_SAMP |
VAR_SAMP,
VARIANCE |
Fonctions d'analyse et de fenêtrage
Le tableau suivant met en correspondance les fonctions analytiques de Teradata et agrège les fonctions analytiques avec les fonctions de fenêtrage équivalentes de BigQuery. BigQuery propose les fonctions supplémentaires suivantes :
Fonctions de date/heure
Le tableau suivant met en correspondance les fonctions de date/heure courantes de Teradata avec leurs équivalents dans BigQuery. BigQuery propose les fonctions de date/heure supplémentaires suivantes :
CURRENT_DATETIME
DATE_ADD
DATE_DIFF
DATE_FROM_UNIX_DATE
DATE_SUB
DATE_TRUNC
DATETIME
DATETIME_ADD
DATETIME_DIFF
DATETIME_SUB
DATETIME_TRUNC
PARSE_DATE
PARSE_DATETIME
PARSE_TIME
PARSE_TIMESTAMP
STRING
TIME
TIME_ADD
TIME_DIFF
TIME_SUB
TIME_TRUNC
TIMESTAMP
TIMESTAMP_ADD
TIMESTAMP_DIFF
TIMESTAMP_MICROS
TIMESTAMP_MILLIS
TIMESTAMP_SECONDS
TIMESTAMP_SUB
TIMESTAMP_TRUNC
UNIX_DATE
UNIX_MICROS
UNIX_MILLIS
UNIX_SECONDS
Teradata | BigQuery |
---|---|
ADD_MONTHS |
DATE_ADD,
TIMESTAMP_ADD
|
CURRENT_DATE |
CURRENT_DATE
|
CURRENT_TIME |
CURRENT_TIME
|
CURRENT_TIMESTAMP |
CURRENT_TIMESTAMP
|
DATE + k |
DATE_ADD(date_expression,
INTERVAL k DAY)
|
DATE - k |
DATE_SUB(date_expression,
INTERVAL k DAY)
|
EXTRACT |
EXTRACT(DATE),
EXTRACT(TIMESTAMP)
|
FORMAT_DATE
|
|
FORMAT_DATETIME
|
|
FORMAT_TIME
|
|
FORMAT_TIMESTAMP
|
|
LAST_DAY |
LAST_DAY
Remarque : Cette fonction accepte les expressions d'entrée DATE et DATETIME .
|
MONTHS_BETWEEN |
DATE_DIFF(date_expression, date_expression, MONTH)
|
NEXT_DAY |
DATE_ADD( |
OADD_MONTHS |
DATE_SUB( |
td_day_of_month |
EXTRACT(DAY FROM date_expression) |
td_day_of_week |
EXTRACT(DAYOFWEEK FROM date_expression) |
td_day_of_year |
EXTRACT(DAYOFYEAR FROM date_expression) |
td_friday |
DATE_TRUNC( |
td_monday |
DATE_TRUNC( |
td_month_begin |
DATE_TRUNC(date_expression, MONTH)
|
td_month_end |
DATE_SUB( |
td_month_of_calendar |
(EXTRACT(YEAR FROM date_expression) - 1900) * 12 + EXTRACT(MONTH FROM date_expression)
|
td_month_of_quarter |
EXTRACT(MONTH FROM date_expression) |
td_month_of_year |
EXTRACT(MONTH FROM date_expression) |
td_quarter_begin |
DATE_TRUNC(date_expression, QUARTER)
|
td_quarter_end |
DATE_SUB( |
td_quarter_of_calendar |
(EXTRACT(YEAR FROM date_expression) |
td_quarter_of_year |
EXTRACT(QUARTER FROM date_expression) |
td_saturday |
DATE_TRUNC( |
td_sunday |
DATE_TRUNC( |
td_thursday |
DATE_TRUNC( |
td_tuesday |
DATE_TRUNC( |
td_wednesday |
DATE_TRUNC( |
td_week_begin |
DATE_TRUNC(date_expression, WEEK)
|
td_week_end |
DATE_SUB( |
td_week_of_calendar |
(EXTRACT(YEAR FROM date_expression) - 1900) * 52 + EXTRACT(WEEK FROM date_expression)
|
td_week_of_month |
EXTRACT(WEEK FROM date_expression) |
td_week_of_year |
EXTRACT(WEEK FROM date_expression) |
td_weekday_of_month |
CAST( |
td_year_begin |
DATE_TRUNC(date_expression, YEAR)
|
td_year_end |
DATE_SUB( |
td_year_of_calendar |
EXTRACT(YEAR FROM date_expression)
|
TO_DATE |
PARSE_DATE
|
TO_TIMESTAMP |
PARSE_TIMESTAMP
|
TO_TIMESTAMP_TZ |
PARSE_TIMESTAMP
|
Fonctions de chaîne
Le tableau suivant met en correspondance les fonctions de chaîne de Teradata avec leurs équivalents dans BigQuery. BigQuery propose les fonctions de chaîne supplémentaires suivantes :
BYTE_LENGTH
CODE_POINTS_TO_BYTES
ENDS_WITH
FROM_BASE32
FROM_BASE64
FROM_HEX
NORMALIZE
NORMALIZE_AND_CASEFOLD
REGEXP_CONTAINS
REGEXP_EXTRACT
REGEXP_EXTRACT_ALL
REPEAT
REPLACE
SAFE_CONVERT_BYTES_TO_STRING
SPLIT
STARTS_WITH
STRPOS
TO_BASE32
TO_BASE64
TO_CODE_POINTS
TO_HEX
Teradata | BigQuery |
---|---|
ASCII |
TO_CODE_POINTS(string_expression)[OFFSET(0)]
|
CHAR2HEXINT |
TO_HEX
|
CHARACTER LENGTH |
CHAR_LENGTH
|
CHARACTER LENGTH |
CHARACTER_LENGTH
|
CHR |
CODE_POINTS_TO_STRING( |
CONCAT, (|| operator) |
CONCAT, (|| operator)
|
CSV |
Fonction définie par l'utilisateur personnalisée. |
CSVLD |
Fonction définie par l'utilisateur personnalisée. |
FORMAT |
FORMAT
|
INDEX |
STRPOS(string, substring)
|
INITCAP |
INITCAP |
INSTR |
Fonction définie par l'utilisateur personnalisée. |
LEFT |
SUBSTR(source_string, 1, length)
|
LENGTH |
LENGTH
|
LOWER |
LOWER
|
LPAD |
LPAD
|
LTRIM |
LTRIM
|
NGRAM |
Fonction définie par l'utilisateur personnalisée. |
NVP |
Fonction définie par l'utilisateur personnalisée. |
OREPLACE |
REPLACE
|
OTRANSLATE |
Fonction définie par l'utilisateur personnalisée. |
POSITION |
STRPOS(string, substring)
|
REGEXP_INSTR |
STRPOS(source_string, Remarque : Renvoie la première occurrence. |
REGEXP_REPLACE |
REGEXP_REPLACE |
REGEXP_SIMILAR |
IF(REGEXP_CONTAINS,1,0) |
REGEXP_SUBSTR |
REGEXP_EXTRACT, |
REGEXP_SPLIT_TO_TABLE |
Fonction définie par l'utilisateur personnalisée. |
REVERSE |
REVERSE
|
RIGHT |
SUBSTR(source_string, -1, length)
|
RPAD |
RPAD
|
RTRIM |
RTRIM
|
STRTOK Remarque : Chaque caractère de l'argument de chaîne "delimiter" est considéré comme un caractère de délimitation distinct. Le délimiteur par défaut est un espace. |
SPLIT(instring, delimiter)[ORDINAL(tokennum)] Remarque : L'argument de chaîne delimiter entier est utilisé comme un délimiteur unique. Le délimiteur par défaut est une virgule. |
STRTOK_SPLIT_TO_TABLE |
Fonction définie par l'utilisateur personnalisée. |
SUBSTRING , SUBSTR |
SUBSTR
|
TRIM |
TRIM
|
UPPER |
UPPER
|
Fonctions mathématiques
Le tableau suivant met en correspondance les fonctions mathématiques de Teradata avec leurs équivalents dans BigQuery. BigQuery propose les fonctions mathématiques supplémentaires suivantes :
Teradata | BigQuery |
---|---|
ABS |
ABS |
ACOS |
ACOS |
ACOSH |
ACOSH |
ASIN |
ASIN |
ASINH |
ASINH |
ATAN |
ATAN |
ATAN2 |
ATAN2 |
ATANH |
ATANH |
CEILING |
CEIL |
CEILING |
CEILING |
COS |
COS |
COSH |
COSH |
EXP |
EXP |
FLOOR |
FLOOR |
GREATEST |
GREATEST |
LEAST |
LEAST |
LN |
LN |
LOG |
LOG |
MOD (opérateur % ) |
MOD |
NULLIFZERO |
NULLIF(expression, 0) |
POWER (opérateur ** ) |
POWER,
POW
|
RANDOM |
RAND |
ROUND |
ROUND |
SIGN |
SIGN |
SIN |
SIN |
SINH |
SINH |
SQRT |
SQRT |
TAN |
TAN |
TANH |
TANH |
TRUNC |
TRUNC |
ZEROIFNULL |
IFNULL(expression, 0),
COALESCE(expression, 0)
|
Syntaxe LMD
Cette section traite des différences de syntaxe du langage de manipulation de données entre Teradata et BigQuery.
Instruction INSERT
La plupart des instructions INSERT
Teradata sont compatibles avec BigQuery.
Le tableau suivant présente les exceptions.
Les scripts LMD dans BigQuery présentent une sémantique de cohérence légèrement différente de celle des instructions équivalentes dans Teradata. Pour obtenir une présentation de l'isolation d'instantané et de la gestion des sessions et des transactions, consultez la section CREATE INDEX
plus loin dans ce document.
Teradata | BigQuery |
---|---|
INSERT INTO table VALUES (...);
|
INSERT INTO
table (...) VALUES (...); Teradata propose un mot clé DEFAULT pour les colonnes n'autorisant pas les valeurs nulles.Remarque : Dans BigQuery, l'omission des noms de colonnes dans l'instruction INSERT ne fonctionne que si les valeurs de toutes les colonnes de la table cible sont incluses dans l'ordre croissant en fonction de leurs positions ordinales. |
INSERT INTO table VALUES (1,2,3);
|
INSERT INTO
table VALUES (1,2,3), Teradata a un concept de requête multi-instructions (MSR, multi-statement request), qui envoie plusieurs instructions INSERT à la fois. Dans BigQuery, cela n'est pas recommandé en raison de la limite de transaction implicite entre les instructions.
Utilisez plutôt une instruction INSERT multivaleur.BigQuery autorise les instructions INSERT simultanées, mais peut mettre en file d'attente les instructions UPDATE .
Pour améliorer les performances, pensez à recourir aux approches suivantes :
|
Instruction UPDATE
La plupart des instructions UPDATE
Teradata sont compatibles avec BigQuery, à l'exception des éléments suivants :
- Lorsque vous utilisez une clause
FROM
, l'ordre des clausesFROM
etSET
est inversé dans Teradata et BigQuery. - En GoogleSQL, chaque instruction
UPDATE
doit inclure le mot cléWHERE
, suivi d'une condition. Pour mettre à jour toutes les lignes de la table, utilisezWHERE true
.
Nous vous recommandons de regrouper plusieurs mutations LMD au lieu d'utiliser des instructions UPDATE
et INSERT
uniques. Les scripts LMD dans BigQuery présentent une sémantique de cohérence légèrement différente de celle des instructions équivalentes dans Teradata.
Pour obtenir une présentation de l'isolation d'instantané et de la gestion des sessions et des transactions, consultez la section CREATE INDEX
plus loin dans ce document.
Le tableau suivant présente les instructions UPDATE
Teradata et les instructions BigQuery qui effectuent les mêmes tâches.
Pour en savoir plus sur l'instruction UPDATE
dans BigQuery, consultez les exemples d'instructions UPDATE
BigQuery dans la documentation sur le LMD.
Teradata | BigQuery | |
---|---|---|
UPDATE table_A
|
UPDATE table_A
|
|
UPDATE table alias
|
UPDATE table
|
|
UPDATE table_A
|
UPDATE table_A
|
Instructions DELETE
et TRUNCATE
Les instructions DELETE
et TRUNCATE
permettent de supprimer des lignes d'une table sans que cela n'affecte son schéma ou ses index. TRUNCATE
n'est utilisé ni dans Teradata, ni dans BigQuery. Cependant, vous pouvez utiliser les instructions DELETE
pour obtenir le même effet.
Dans BigQuery, l'instruction DELETE
doit comporter une clause WHERE
.
Pour supprimer (tronquer) toutes les lignes de la table, utilisez WHERE true
. Pour accélérer les opérations de troncation des tables très volumineuses, nous vous recommandons d'utiliser l'instruction CREATE OR REPLACE TABLE ... AS SELECT
, en utilisant LIMIT 0
sur la même table pour la remplacer. Cependant, veillez à ajouter manuellement les informations de partitionnement et de clustering lorsque vous utilisez cette instruction.
Teradata élimine les lignes supprimées ultérieurement. Cela signifie que les opérations DELETE
sont au départ plus rapides que dans BigQuery, mais qu'elles nécessitent ensuite des ressources, en particulier les opérations DELETE
à grande échelle qui ont un impact sur la majeure partie d'une table. Pour utiliser une approche similaire dans BigQuery, nous vous suggérons de réduire le nombre d'opérations DELETE
, par exemple en copiant les lignes à ne pas supprimer dans une nouvelle table. Vous pouvez également supprimer des partitions entières.
Ces deux options sont conçues pour être plus rapides que les mutations LMD atomiques.
Pour en savoir plus sur l'instruction DELETE
dans BigQuery, consultez les exemples d'instructions DELETE
dans la documentation sur le LMD.
Teradata | BigQuery |
---|---|
BEGIN TRANSACTION;
|
Le remplacement du contenu d'une table par un résultat de requête équivaut à une transaction. Pour ce faire, vous pouvez utiliser une opération de requête ou une opération de copie. Avec une opération de requête :
bq query --replace --destination_table table_A 'SELECT * FROM table_B';
Avec une opération de copie : bq cp -f table_A table_B |
DELETE database.table ALL; |
DELETE FROM table WHERE TRUE; Ou, pour les tables très volumineuses, une méthode plus rapide : CREATE OR REPLACE table AS SELECT * FROM table LIMIT 0; |
Instruction MERGE
L'instruction MERGE
peut combiner les opérations INSERT
, UPDATE
et DELETE
en une seule instruction "upsert" et effectuer les opérations de manière atomique. L'opération MERGE
doit correspondre à une ligne source au maximum pour chaque ligne cible.
BigQuery et Teradata suivent tous deux la syntaxe ANSI.
L'opération MERGE
de Teradata est limitée à la mise en correspondance des clés primaires dans un processeur de module d'accès (AMP, access module processor).
En revanche, BigQuery n'a aucune limite de taille ou de colonne pour les opérations MERGE
. Par conséquent, l'utilisation de MERGE
est une optimisation utile. Toutefois, si l'instruction MERGE
est principalement une suppression de grande taille, consultez les optimisations pour DELETE
plus loin dans ce document.
Les scripts LMD dans BigQuery présentent une sémantique de cohérence légèrement différente de celle des instructions équivalentes dans Teradata. Par exemple, les tables SET de Teradata en mode session peuvent ignorer les doubles lors d'une opération MERGE
. Pour obtenir une présentation de la gestion des tables MULTISET et SET, de l'isolation d'instantané et de la gestion des sessions et des transactions, consultez la section CREATE INDEX
plus loin dans ce document.
Variables affectées par les lignes
Dans Teradata, la variable ACTIVITY_COUNT
est une extension ANSI SQL Teradata renseignée avec le nombre de lignes affectées par une instruction LMD.
La variable système @@row_count
de la fonctionnalité d'écriture de script offre une fonction similaire.
Dans BigQuery, il est plus courant de vérifier la valeur renvoyée numDmlAffectedRows
dans les journaux d'audit ou dans les vues INFORMATION_SCHEMA
.
Syntaxe LDD
Cette section traite des différences de syntaxe du langage de définition de données entre Teradata et BigQuery.
Instruction CREATE TABLE
La plupart des instructions CREATE TABLE
Teradata sont compatibles avec BigQuery, à l'exception des éléments de syntaxe suivants, qui ne sont pas utilisés dans BigQuery :
MULTISET
. Consultez la sectionCREATE INDEX
.VOLATILE
. Consultez la section Tables temporaires.[NO] FALLBACK
. Consultez la section Rollback.[NO] BEFORE JOURNAL
,[NO] AFTER JOURNAL
CHECKSUM = DEFAULT | val
DEFAULT MERGEBLOCKRATIO
PRIMARY INDEX (col, ...)
. Consultez la sectionCREATE INDEX
.UNIQUE PRIMARY INDEX
. Consultez la sectionCREATE INDEX
.CONSTRAINT
DEFAULT
IDENTITY
Pour en savoir plus sur l'instruction CREATE TABLE
dans BigQuery, consultez les exemples d'instructions CREATE
BigQuery dans la documentation sur le LMD.
Attributs et options de colonne
Les spécifications de colonne suivantes pour l'instruction CREATE TABLE
ne sont pas utilisées dans BigQuery :
FORMAT 'format'
. Consultez la section Mise en forme des types de données Teradata.CHARACTER SET name
. BigQuery utilise toujours l'encodage UTF-8.[NOT] CASESPECIFIC
COMPRESS val | (val, ...)
Teradata étend la norme ANSI avec une option de colonne TITLE
. Cette fonctionnalité peut être mise en œuvre d'une manière similaire dans BigQuery à l'aide de la description de colonne, comme indiqué dans le tableau suivant. Notez que cette option n'est pas disponible pour les vues.
Teradata | BigQuery |
---|---|
CREATE TABLE table (
|
CREATE TABLE dataset.table (
|
Tables temporaires
Teradata accepte les tables volatiles, qui sont souvent utilisées pour stocker des résultats intermédiaires dans des scripts. Il existe plusieurs façons d'obtenir une fonctionnalité semblable aux tables volatiles dans BigQuery :
CREATE TEMPORARY TABLE
peut être utilisé dans la fonctionnalité de création de scripts et est valide pendant la durée de vie du script. Si la table doit exister au-delà de la durée de vie d'un script, vous pouvez utiliser les autres options de cette liste.Valeur TTL de l'ensemble de données : créez un ensemble de données ayant une durée de vie courte (par exemple, 1 heure) afin que les tables créées dans cet ensemble de données soient effectivement temporaires, car elles ne persisteront pas au-delà de la durée de vie d'un script. Vous pouvez ajouter le préfixe
temp
à tous les noms de tables de cet ensemble de données pour indiquer clairement que les tables sont temporaires.Valeur TTL de la table : créez une table ayant une durée de vie courte à l'aide d'instructions LDD semblables à ce qui suit :
CREATE TABLE temp.name (col1, col2, ...) OPTIONS(expiration_timestamp=TIMESTAMP_ADD(CURRENT_TIMESTAMP(), INTERVAL 1 HOUR));
Clause
WITH
: si une table temporaire n'est nécessaire que dans le même bloc, utilisez un résultat temporaire à l'aide d'une sous-requête ou d'une instructionWITH
. C'est l'option la plus efficace.
Un modèle souvent utilisé dans les scripts Teradata (BTEQ) consiste à créer une table permanente, à y insérer une valeur, à utiliser cette table comme table temporaire dans les instructions en cours, puis à la supprimer ou à la tronquer.
En effet, la table est utilisée comme variable constante (sémaphore). Cette approche n'est pas efficace dans BigQuery, et nous vous recommandons d'utiliser plutôt des variables réelles dans la fonctionnalité d'écriture de script ou CREATE OR REPLACE
avec la syntaxe de requête AS SELECT
pour créer une table contenant déjà des valeurs.
Instruction CREATE VIEW
Le tableau suivant présente les équivalences entre Teradata et BigQuery pour l'instruction CREATE VIEW
. Les clauses de verrouillage de table telles que LOCKING ROW FOR ACCESS
ne sont pas nécessaires dans BigQuery.
Teradata | BigQuery | Remarques |
---|---|---|
CREATE VIEW view_name AS SELECT ...
|
CREATE VIEW
view_name AS SELECT ...
|
|
REPLACE VIEW view_name AS SELECT ...
|
CREATE OR REPLACE VIEW
|
|
Non compatible |
CREATE VIEW IF NOT EXISTS
|
Crée une vue uniquement si elle n'existe pas dans l'ensemble de données spécifié. |
Instruction CREATE [UNIQUE] INDEX
Teradata requiert des index pour toutes les tables et requiert des solutions spéciales telles que les tables MULTISET et NoPI afin de pouvoir utiliser des données non uniques ou non indexées.
BigQuery ne nécessite pas d'index. Cette section décrit les méthodes dans BigQuery permettant de créer des fonctionnalités semblables à l'utilisation des index dans Teradata, en cas de besoin réel d'une logique métier.
Indexation à des fins de performances
Comme il s'agit d'une base de données orientée colonnes avec optimisation des requêtes et du stockage, BigQuery n'a pas besoin d'index explicites. BigQuery fournit des fonctionnalités telles que le partitionnement et le clustering, ainsi que des champs imbriqués, qui peuvent améliorer l'efficacité et les performances des requêtes en optimisant le stockage des données.
Teradata n'est pas compatible avec les vues matérialisées. Cependant, il propose des index de jointure à l'aide de l'instruction CREATE JOIN INDEX
, qui matérialise essentiellement les données nécessaires à une jointure. BigQuery n'a pas besoin d'index matérialisés pour accélérer les performances, tout comme il n'a pas besoin d'espace de spool dédié aux jointures.
Pour les autres cas d'optimisation, vous pouvez utiliser des vues matérialisées.
Indexation à des fins de cohérence (UNIQUE, PRIMARY INDEX)
Dans Teradata, un index unique peut être utilisé pour empêcher que des lignes contiennent des clés non uniques dans une table. Si un processus tente d'insérer ou de mettre à jour des données ayant une valeur figurant déjà dans l'index, l'opération échoue avec une violation d'index (tables MULTISET) ou les ignore en mode silencieux (tables SET).
Comme BigQuery ne fournit pas d'index explicites, une instruction MERGE
peut être utilisée à la place pour insérer uniquement des enregistrements uniques dans une table cible à partir d'une table intermédiaire tout en supprimant les enregistrements en double. Cependant, il est impossible d'empêcher un utilisateur disposant de droits de modification d'insérer un enregistrement en double, car BigQuery ne se verrouille jamais pendant les opérations INSERT
.
Pour générer une erreur liée à des enregistrements en double dans BigQuery, vous pouvez utiliser une instruction MERGE
à partir d'une table intermédiaire, comme indiqué dans l'exemple suivant.
Teradata | BigQuery | |
---|---|---|
CREATE [UNIQUE] INDEX name;
|
MERGE `prototype.FIN_MERGE` t
|
Le plus souvent, les utilisateurs préfèrent supprimer les doubles indépendamment afin de détecter les erreurs dans les systèmes en aval.
BigQuery n'est pas compatible avec les colonnes DEFAULT
et IDENTITY
(séquences).
Indexation pour obtenir le verrouillage
Teradata fournit des ressources dans le processeur de module d'accès (AMP). Les requêtes peuvent utiliser les ressources de tous les AMP, d'un seul AMP ou d'un groupe d'AMP. Les instructions LDD consomment les ressources de tous les AMP et sont donc semblables à un verrou LDD global.
BigQuery ne dispose pas d'un mécanisme de verrouillage comme celui-ci et peut exécuter des requêtes simultanées et des instructions INSERT
dans la limite de votre quota. Seules les instructions LMD UPDATE
simultanées ont des conséquences en termes de simultanéité : les opérations UPDATE
réalisées sur la même partition sont mises en file d'attente pour garantir l'isolation d'instantané. Vous n'avez donc pas besoin du verrouillage pour empêcher les lectures fantômes ou les mises à jour perdues.
En raison de ces différences, les éléments Teradata suivants ne sont pas utilisés dans BigQuery :
ON COMMIT DELETE ROWS;
ON COMMIT PRESERVE ROWS;
Instructions SQL procédurales
Cette section explique comment convertir les instructions SQL procédurales utilisées dans des procédures stockées, des fonctions et des déclencheurs de Teradata en scripts, procédures ou fonctions définies par l'utilisateur BigQuery.
Les administrateurs système peuvent vérifier tous ces éléments à l'aide des vues INFORMATION_SCHEMA
.
Instruction CREATE PROCEDURE
Les procédures stockées sont compatibles avec la fonctionnalité de création de scripts BigQuery.
Dans BigQuery, cette fonctionnalité fait référence à toute utilisation d'instructions de contrôle, tandis que les procédures sont des scripts nommés (avec des arguments, si nécessaire) qui peuvent être appelés à partir d'autres scripts et stockés de manière permanente, en cas de besoin. Une fonction définie par l'utilisateur peut également être écrite en JavaScript.
Teradata | BigQuery |
---|---|
CREATE PROCEDURE |
CREATE PROCEDURE si un nom est requis. Sinon, utilisez l'instruction sous le bloc BEGIN ou sur une seule ligne avec CREATE TEMP FUNCTION . |
REPLACE PROCEDURE |
CREATE OR REPLACE PROCEDURE |
CALL |
CALL |
Les sections suivantes décrivent comment convertir des instructions procédurales Teradata existantes en instructions de script BigQuery ayant des fonctionnalités similaires.
Déclaration et attribution de variables
Les variables BigQuery sont valides pendant toute la durée de vie du script.
Teradata | BigQuery |
---|---|
DECLARE |
DECLARE |
SET |
SET |
Gestionnaires de conditions d'erreur
Teradata utilise des gestionnaires sur les codes d'état dans les procédures à des fins de contrôle des erreurs. Dans BigQuery, la gestion des erreurs est une fonctionnalité essentielle du flux de contrôle principal, semblable à ce que d'autres langages fournissent avec les blocs TRY ... CATCH
.
Teradata | BigQuery |
---|---|
DECLARE EXIT HANDLER
FOR SQLEXCEPTION |
BEGIN ... EXCEPTION WHEN ERROR THEN |
SIGNAL sqlstate |
RAISE message |
DECLARE CONTINUE HANDLER
FOR SQLSTATE VALUE 23505; |
Les gestionnaires d'exceptions qui se déclenchent pour certaines conditions d'erreur ne sont pas utilisés par BigQuery. Nous vous recommandons d'utiliser les instructions ASSERT dans lesquelles les conditions de sortie sont utilisées pour les vérifications préalables ou le débogage, car elles sont conformes à la norme ANSI SQL:2011. |
La variable SQLSTATE
de Teradata est semblable à la variable système @@error
de BigQuery. Dans BigQuery, il est plus courant de rechercher les erreurs à l'aide des journaux d'audit ou des vues INFORMATION_SCHEMA
.
Déclarations et opérations de curseurs
Étant donné que BigQuery n'accepte pas les curseurs ni les sessions, il n'utilise pas les instructions suivantes :
DECLARE cursor_name CURSOR [FOR | WITH] ...
PREPARE stmt_id FROM sql_str;
OPEN cursor_name [USING var, ...];
FETCH cursor_name INTO var, ...;
CLOSE cursor_name;
Instructions SQL dynamiques
La fonctionnalité d'écriture de script de BigQuery est compatible avec les instructions SQL dynamiques telles que celles présentées dans le tableau suivant.
Teradata | BigQuery |
---|---|
EXECUTE IMMEDIATE
sql_str; |
EXECUTE IMMEDIATE
sql_str; |
EXECUTE
stmt_id [USING var,...]; |
EXECUTE IMMEDIATE
stmt_id USING var; |
Les instructions SQL dynamiques suivantes ne sont pas utilisées dans BigQuery :
PREPARE stmt_id FROM sql_str;
Instructions de flux de contrôle
La fonctionnalité d'écriture de script de BigQuery accepte les instructions de flux de contrôle telles que celles présentées dans le tableau suivant.
Teradata | BigQuery |
---|---|
IF condition THEN stmts ELSE stmts END IF
|
IF condition THEN stmts ELSE stmts END IF |
label_name: LOOP stmts END LOOP label_name;
|
Les constructions de blocs de style GOTO ne sont pas utilisées dans BigQuery. Nous vous recommandons de les réécrire en tant que fonctions définies par l'utilisateur ou d'utiliser des instructions ASSERT où elles sont utilisées pour le traitement des erreurs.
|
REPEAT stmts UNTIL condition END REPEAT;
|
WHILE condition DO stmts END WHILE |
LEAVE outer_proc_label;
|
L'instruction LEAVE n'est pas utilisée pour les blocs de style GOTO. Elle est utilisée comme synonyme de BREAK pour quitter une boucle WHILE . |
LEAVE label;
|
L'instruction LEAVE n'est pas utilisée pour les blocs de style GOTO. Elle est utilisée comme synonyme de BREAK pour quitter une boucle WHILE . |
WITH RECURSIVE temp_table AS ( ... );
|
Les requêtes récurrentes (également appelées expressions de table commune (CTE) récurrentes) ne sont pas utilisées dans BigQuery. Elles peuvent être réécrites à l'aide de tableaux de UNION ALL . |
Les instructions de flux de contrôle suivantes ne sont pas utilisées dans BigQuery, car BigQuery n'utilise pas de curseur ni de session :
Instructions SQL de métadonnées et de transactions
Teradata | BigQuery |
---|---|
HELP TABLE table_name;
HELP VIEW view_name;
|
SELECT La même requête est valide pour obtenir des informations de colonne pour les vues. Pour en savoir plus, consultez la vue Colonnes dans BigQuery INFORMATION_SCHEMA . |
SELECT * FROM dbc.tables WHERE tablekind = 'T'; (vue DBC Teradata) |
SELECT Pour en savoir plus, consultez la page Présentation des vues INFORMATION_SCHEMA de BigQuery. |
HELP STATISTICS table_name; |
APPROX_COUNT_DISTINCT(col) |
COLLECT STATS USING SAMPLE ON table_name column (...); |
Non utilisé dans BigQuery. |
LOCKING TABLE table_name FOR EXCLUSIVE; |
BigQuery utilise toujours l'isolation d'instantané. Pour en savoir plus, consultez la section Garanties de cohérence plus loin dans ce document. |
SET SESSION CHARACTERISTICS AS TRANSACTION ISOLATION LEVEL ... |
BigQuery utilise toujours l'isolation d'instantané. Pour en savoir plus, consultez la section Garanties de cohérence plus loin dans ce document. |
BEGIN TRANSACTION; |
BigQuery utilise toujours l'isolation d'instantané. Pour en savoir plus, consultez la section Garanties de cohérence plus loin dans ce document. |
EXPLAIN ... |
Non utilisé dans BigQuery. L'explication du plan de requête dans l'interface utilisateur Web de BigQuery et l'allocation d'emplacements visible dans les vues INFORMATION_SCHEMA et dans la journalisation d'audit dans Cloud Monitoring sont des fonctionnalités similaires. |
Instructions SQL multi-instructions et multilignes
Teradata et BigQuery acceptent les transactions (sessions) et donc les instructions séparées par un point-virgule qui sont systématiquement exécutées ensemble. Pour plus d'informations, consultez la section Transactions multi-instructions.
Codes et messages d'erreur
Les codes d'erreur Teradata et BigQuery sont différents. En fournissant une API REST, BigQuery repose principalement sur des codes d'état HTTP et des messages d'erreur détaillés.
Si votre logique d'application détecte actuellement les erreurs suivantes, essayez d'éliminer la source de l'erreur, car BigQuery ne renverra pas les mêmes codes d'erreur.
SQLSTATE = '02000'
: "Ligne introuvable"SQLSTATE = '21000'
: "Violation de cardinalité (index unique)"SQLSTATE = '22000'
: "Violation de données (type de données)"SQLSTATE = '23000'
: "Violation de contrainte"
Dans BigQuery, il est plus courant d'utiliser les vues INFORMATION_SCHEMA
ou la journalisation d'audit pour afficher le détail des erreurs.
Pour en savoir plus sur la gestion des erreurs dans la fonctionnalité de création de scripts, consultez les sections suivantes.
Garanties de cohérence et isolation de transaction
Teradata et BigQuery sont tous deux atomiques, c'est-à-dire conformes à la norme ACID au niveau de chaque mutation sur de nombreuses lignes. Par exemple, une opération MERGE
est complètement atomique, même avec plusieurs valeurs insérées et mises à jour.
Transactions
Teradata fournit le niveau d'isolation de transaction "Read Uncommitted" (lecture des données non validées) ou "Serializable" (sérialisable) lors de l'exécution en mode session (au lieu du mode autocommit). Dans le meilleur des cas, Teradata obtient une isolation strictement sérialisable en utilisant un verrouillage pessimiste sur un hachage de ligne dans toutes les colonnes de lignes de toutes les partitions. Les interblocages sont possibles. Le langage LDD impose toujours une limite de transaction. Les jobs Teradata FastLoad s'exécutent indépendamment, mais uniquement sur des tables vides.
BigQuery est également compatible avec les transactions.
BigQuery permet d'assurer un contrôle de simultanéité optimiste (le premier à effectuer un commit l'emporte) avec isolation d'instantané, où une requête lit les dernières données validées avant le démarrage de la requête. Cette approche garantit le même niveau de cohérence par ligne, par mutation et entre les lignes d'une même instruction LMD, tout en évitant les interblocages. Si plusieurs instructions UPDATE
sont effectuées sur la même table, BigQuery bascule vers le contrôle de simultanéité pessimiste et met en file d'attente plusieurs instructions UPDATE
, en effectuant automatiquement de nouvelles tentatives en cas de conflits. Les instructions LMD INSERT
et les jobs de chargement peuvent s'exécuter simultanément et indépendamment pour ajouter des données aux tables.
Rollback
Teradata accepte deux modes de rollback de session, le mode session ANSI et le mode session Teradata (SET SESSION CHARACTERISTICS
et SET SESSION TRANSACTION
), selon le mode de rollback souhaité. En cas d'échec, le rollback de la transaction peut ne pas être possible.
BigQuery accepte l'instruction ROLLBACK TRANSACTION
.
Il n'y a pas d'instruction ABORT
dans BigQuery.
Limites des bases de données
Vérifiez toujours les derniers quotas et les dernières limites dans la documentation publique BigQuery. Les utilisateurs ayant un volume de requêtes important peuvent demander l'augmentation de nombreux quotas en contactant l'équipe d'assistance Cloud. Le tableau suivant présente une comparaison des limites de base de données pour Teradata et BigQuery.
Limite | Teradata | BigQuery |
---|---|---|
Tables par base de données | Pas de restriction | Pas de restriction |
Colonnes par table | 2 048 | 10 000 |
Taille maximale des lignes | 1 Mo | 100 Mo |
Longueur des noms de colonnes et de tables | 128 caractères Unicode | 16 384 caractères Unicode |
Nombre de lignes par table | Illimité | Illimité |
Longueur maximale des requêtes SQL | 1 Mo | 1 Mo (longueur maximale des requêtes GoogleSQL non résolues) 12 Mo (longueur maximale des requêtes résolues en ancien SQL et des requêtes GoogleSQL résolues) Traitement par flux :
|
Taille maximale des requêtes et des réponses | 7 Mo (requête), 16 Mo (réponse) | 10 Mo (requête) et 10 Go (réponse), ou presque illimitée si vous utilisez la pagination ou l'API Cloud Storage |
Nombre maximal de sessions simultanées | 120 par moteur d'analyse | 100 requêtes simultanées (ce nombre peut être augmenté avec une réservation d'emplacement), 300 requêtes API simultanées par utilisateur |
Nombre maximal de chargements (rapides) simultanés | 30 (Valeur par défaut : 5) | Aucune limite de simultanéité ; les tâches sont mises en file d'attente. 100 000 tâches de chargement par projet et par jour |