[Perl] Download de gros volume de données
Dominique Asselineau
asseline at telecom-paristech.fr
Mer 13 Juil 20:41:06 CEST 2016
Stéphane Gigandet wrote on Wed, Jul 13, 2016 at 08:21:02PM +0200
> Bonjour Dominique,
>
> "Je cherche à optimiser la sortie de gros fichiers sur STDOUT dans un
> contexte Internet"
>
> Pourrais-tu préciser le contexte plus exactement ? Parce que si tu veux
> transférer des gros PDFs via un serveur Web par exemple, le plus simple
> serait de laisser ton serveur Web (Apache ou autre) le faire. Pas besoin de
> Perl pour ça, et Apache + le client HTTP pourront négocier entre eux bien
> plus efficacement. (reprise des requêtes de range, compression etc.)
Oui, mais les PDF ne sont pas dans un espace public et puis les noms
d'archivages ne sont pas ceux qu'on voit à la récupération, il y a un
versionnage. Il peut également y avoir des contrôles d'accès qui ne
peuvent être gérer par un .htaccess. et puis il n'y a pas que des
PDFs, des archives (.zip) créées à la volée peuvent être traitées.
>
> Si ce sont des fichiers privés, on peut imaginer des solutions pour
> qu'Apache serve les fichiers directement quand même, par exemple ton script
> Perl peut créer des liens symboliques temporaires vers les fichiers, et
> rediriger chaque client vers une URL unique.
Il faut connaître le moment où le lien symbolique doit être supprimé,
savoir quand le fichier a été récupéré puisque le client peut prendre
le temps qu'il veut pour cliquer sur le lien à télécharger. J'avais
réfléchi à ce genre de chose mais c'était tout le temps compliqué.
Merci
Dominique
>
> Bonne soirée,
>
> Stéphane
>
> ---
> L'absence de virus dans ce courrier électronique a été vérifiée par le logiciel antivirus Avast.
> https://www.avast.com/antivirus
>
> _______________________________________________
> Perl mailing list
> Perl at mongueurs.net
> http://listes.mongueurs.net/mailman/listinfo/perl
--
Plus d'informations sur la liste de diffusion Perl