HTTP Batch Stream Link
Cette page a été traduite par PageTurner AI (bêta). Non approuvée officiellement par le projet. Vous avez trouvé une erreur ? Signaler un problème →
httpBatchStreamLink est un lien terminal qui regroupe un tableau d'opérations tRPC individuelles en une seule requête HTTP envoyée à une procédure tRPC unique (équivalent à httpBatchLink), mais n'attend pas que toutes les réponses du lot soient prêtes et diffuse les réponses dès que des données sont disponibles.
Options
Les options sont identiques à celles de httpBatchLink options.
Utilisation
Tous les usages et options sont identiques à
httpBatchLink.
Si vous avez besoin de modifier ou définir des en-têtes de réponse (y compris les cookies) depuis vos procédures, utilisez plutôt httpBatchLink ! Cela est dû au fait que httpBatchStreamLink ne permet pas de définir des en-têtes une fois que le flux a commencé. En savoir plus.
Vous pouvez importer et ajouter le httpBatchStreamLink au tableau links comme suit :
client/index.tstsimport { createTRPCClient, httpBatchStreamLink } from '@trpc/client';import type { AppRouter } from '../server';const client = createTRPCClient<AppRouter>({links: [httpBatchStreamLink({url: 'http://localhost:3000',}),],});
client/index.tstsimport { createTRPCClient, httpBatchStreamLink } from '@trpc/client';import type { AppRouter } from '../server';const client = createTRPCClient<AppRouter>({links: [httpBatchStreamLink({url: 'http://localhost:3000',}),],});
Ensuite, vous pouvez exploiter le regroupement en plaçant toutes vos procédures dans un Promise.all. Le code ci-dessous générera exactement une requête HTTP et sur le serveur exactement une requête de base de données :
tsconst somePosts = await Promise.all([trpc.post.byId.query(1),trpc.post.byId.query(2),trpc.post.byId.query(3),]);
tsconst somePosts = await Promise.all([trpc.post.byId.query(1),trpc.post.byId.query(2),trpc.post.byId.query(3),]);
Mode streaming
Lors du regroupement de requêtes, le comportement d'un httpBatchLink classique est d'attendre que toutes les requêtes se terminent avant d'envoyer la réponse. Si vous souhaitez envoyer les réponses dès qu'elles sont prêtes, utilisez plutôt httpBatchStreamLink. Ceci est utile pour les requêtes de longue durée.
client/index.tstsimport { createTRPCClient, httpBatchStreamLink } from '@trpc/client';import type { AppRouter } from '../server';const client = createTRPCClient<AppRouter>({links: [httpBatchStreamLink({url: 'http://localhost:3000',}),],});
client/index.tstsimport { createTRPCClient, httpBatchStreamLink } from '@trpc/client';import type { AppRouter } from '../server';const client = createTRPCClient<AppRouter>({links: [httpBatchStreamLink({url: 'http://localhost:3000',}),],});
Comparé à un httpBatchLink classique, un httpBatchStreamLink va :
-
Envoyer les requêtes avec un en-tête
trpc-accept: application/jsonl -
Envoyer la réponse avec
transfer-encoding: chunkedetcontent-type: application/jsonl -
Supprimer la clé
datade l'objet d'argument passé àresponseMeta(car avec une réponse streamée, les en-têtes sont envoyés avant que les données ne soient disponibles)
Générateurs asynchrones et promesses différées
Vous pouvez tester cette fonctionnalité sur la page d'accueil de tRPC.io : https://trpc.io/?try=minimal#try-it-out
ts// @filename: server.tsimport {publicProcedure ,router } from './trpc';constappRouter =router ({examples : {iterable :publicProcedure .query (async function* () {for (leti = 0;i < 3;i ++) {await newPromise ((resolve ) =>setTimeout (resolve , 500));yieldi ;}}),},});export typeAppRouter = typeofappRouter ;// @filename: client.tsimport {createTRPCClient ,httpBatchStreamLink } from '@trpc/client';import type {AppRouter } from './server';consttrpc =createTRPCClient <AppRouter >({links : [httpBatchStreamLink ({url : 'http://localhost:3000',}),],});constiterable = awaittrpc .examples .iterable .query ();for await (constvalue ofiterable ) {console .log ('Iterable:',value );}
ts// @filename: server.tsimport {publicProcedure ,router } from './trpc';constappRouter =router ({examples : {iterable :publicProcedure .query (async function* () {for (leti = 0;i < 3;i ++) {await newPromise ((resolve ) =>setTimeout (resolve , 500));yieldi ;}}),},});export typeAppRouter = typeofappRouter ;// @filename: client.tsimport {createTRPCClient ,httpBatchStreamLink } from '@trpc/client';import type {AppRouter } from './server';consttrpc =createTRPCClient <AppRouter >({links : [httpBatchStreamLink ({url : 'http://localhost:3000',}),],});constiterable = awaittrpc .examples .iterable .query ();for await (constvalue ofiterable ) {console .log ('Iterable:',value );}
Compatibilité (côté client)
Navigateurs
La prise en charge des navigateurs devrait être identique à celle de fetch.
Node.js / Deno
Pour les environnements autres que les navigateurs, l'implémentation de fetch doit supporter le streaming, ce qui signifie que la réponse obtenue via await fetch(...) doit avoir une propriété body de type ReadableStream<Uint8Array> | NodeJS.ReadableStream, impliquant que :
-
soit
response.body.getReaderest une fonction renvoyant un objetReadableStreamDefaultReader<Uint8Array> -
soit
response.bodyest unBufferUint8Array
Cela inclut le support pour undici, node-fetch, l'implémentation native de fetch dans Node.js et l'implémentation WebAPI (navigateurs).
React Native
La réception du flux dépend des API TextDecoder et TextDecoderStream, qui ne sont pas disponibles dans React Native. Notez que si votre polyfill TextDecoderStream ne polyfille pas automatiquement ReadableStream et WritableStream, ceux-ci devront également être polyfillés. Si vous souhaitez tout de même activer le streaming, vous devez polyfiller ces API.
Vous devrez également remplacer le fetch par défaut dans les options de configuration du httpBatchStreamLink. Dans l'exemple ci-dessous, nous utiliserons le package Expo fetch pour l'implémentation fetch.
typescripthttpBatchStreamLink({fetch: (url, opts) =>fetch(url, {...opts,reactNative: { textStreaming: true },}),...restOfConfig,});
typescripthttpBatchStreamLink({fetch: (url, opts) =>fetch(url, {...opts,reactNative: { textStreaming: true },}),...restOfConfig,});
Compatibilité (côté serveur)
⚠️ pour aws lambda,
httpBatchStreamLinkn'est pas pris en charge (il se comportera simplement comme unhttpBatchLinkstandard). L'activer ne devrait rien casser, mais n'aura aucun effet.
⚠️ pour cloudflare workers, vous devez activer l'API
ReadableStreamvia un flag de fonctionnalité :streams_enable_constructors
Référence
Vous pouvez consulter le code source de ce lien sur GitHub.
Configurer une option de ping pour maintenir la connexion active
Lors de la configuration de votre root config, vous pouvez passer une option jsonl pour configurer une option de ping afin de maintenir la connexion active.
tsimport { initTRPC } from '@trpc/server';const t = initTRPC.create({jsonl: {pingMs: 1000,},});
tsimport { initTRPC } from '@trpc/server';const t = initTRPC.create({jsonl: {pingMs: 1000,},});