banner
Centre d'Information
Prix ​​d'usine compétitif et grande qualité

Pourquoi j'ai finalement acheté un Synology NAS pour After Effects par Chris Zwar

Oct 30, 2023

Comment j'ai appris à ne plus m'inquiéter et à aimer faire tourner les disques durs

Alors que nous commençons la nouvelle année, il est naturel de revenir sur 2022 et de réfléchir sur les douze derniers mois. Alors qu'Adobe a continué à déployer de nouvelles fonctionnalités et mises à jour After Effects, le changement le plus notable pour moi a été la mise à niveau de mon bureau à domicile avec un NAS Synology. C'était quelque chose que j'avais prévu depuis des années – en fait j'y pensais depuis si longtemps que je me suis surpris quand c'est finalement arrivé.

L'achat d'un nouveau matériel peut être excitant. Mais selon votre situation, cela peut aussi être fastidieux ou éprouvant pour les nerfs, ou si vous êtes pressé de remplacer quelque chose de façon inattendue, c'est carrément irritant. Aprèsannées de procrastination, 2022 a été l'année où j'ai finalement acheté un "vrai" NAS. Quand j'étais plus jeune, j'aurais trouvé cela incroyablement excitant. Maintenant que je suis plus âgé, c'était un processus beaucoup plus fastidieux.

Cet article n'est pas une critique, ni un benchmark, ni même un conseil d'achat. C'est simplement un blog personnel sur les processus de réflexion que j'ai traversés au fil des ans, à mesure que la technologie et les conditions de travail ont changé.

La révolution de la vidéo de bureau, et plus particulièrement le montage non linéaire, venait tout juste d'émerger lorsque j'étais à l'université dans les années 1990. Les ordinateurs de bureau, à eux seuls, n'étaient pas assez puissants pour lire des fichiers vidéo. Mais des entreprises pionnières telles que Lightworks, Avid et Media 100 ont introduit des cartes vidéo révolutionnaires qui permettaient à un Mac ou un PC ordinaire de lire des vidéos de « qualité broadcast ».

Les disques durs faisaient partie du problème. Un seul disque dur n'était tout simplement pas assez rapide pour lire les données nécessaires à la lecture vidéo. La solution consistait à utiliser une matrice de plusieurs disques durs, afin de répartir la charge de travail et d'augmenter les performances. Ceci est généralement appelé RAID - un acronyme pour Redundant Array of Independent (or Inexpensive) Disks. L'ordinateur traite les disques comme un seul périphérique - un seul volume, tout comme un disque dur ordinaire. Mais les fichiers sont divisés et répartis sur tous les disques de la matrice, partageant le travail de lecture et d'écriture et augmentant la vitesse globale.

Les matrices RAID ont été développées dans les années 1980, alors que le marché des ordinateurs personnels se développait rapidement. Le coût inférieur des appareils grand public en faisait des options économiquement viables par rapport aux systèmes mainframe traditionnels, mais le monde de l'entreprise exigeait la fiabilité.

Dans le monde des affaires, l'aspect le plus important d'une matrice RAID est la redondance, ce qui signifie qu'aucune donnée n'est perdue en cas de panne d'un disque. Différents types de RAID ont été développés qui utilisaient différentes techniques pour distribuer les données sur plusieurs disques durs, avec différents degrés de redondance.

Mais avec l'émergence du montage non linéaire dans les années 1990, la redondance qui définissait une matrice RAID était presque toujours ignorée. Ce dont les éditeurs vidéo avaient besoin, c'était de la vitesse brute - les débits de données les plus rapides possibles - et la redondance ralentissait simplement tout. Les éditeurs non linéaires utilisaient des matrices RAID sans aucune redondance car plusieurs disques étaient nécessaires pour atteindre les débits de données élevés nécessaires à la lecture vidéo. Si un seul disque tombait en panne, toutes les données étaient perdues.

Comme tout le matériel vidéo dans les années 1990, tout était beaucoup plus cher qu'aujourd'hui. En 1995, en dollars australiens, une configuration RAID de bureau vous coûterait même 1 000 $ par gigaoctet. La baie de 18 Go pour laquelle nous avons été cités pour la première fois, composée de quatre disques Seagate Barracuda distincts, coûtait 18 000 $.

Jusqu'au milieu des années 1990, les plus gros disques durs disponibles avaient une capacité d'environ 4 ½ gigaoctets. C'était aussi gros que possible, mais pas vraiment assez gros pour la vidéo. Le montage vidéo a toujours eu besoin de beaucoup de stockage, et les systèmes de montage typiques de cette époque utilisaient un RAID avec au moins 4 disques, pour une capacité totale d'environ 18 gigaoctets. Le fait d'avoir 4 disques dans la matrice garantissait également des vitesses de transfert rapides, ainsi que les maux de tête associés au SCSI - différents types de SCSI, ID SCSI, chaînes SCSI capricieuses et câbles à couper le souffle. Si vous pouviez vous le permettre, vous pourriez avoir plus de quatre disques dans votre RAID, mais cela augmentait également le risque qu'une seule panne de disque fasse tomber tout le système.

Ce fut ma première introduction au concept d'un RAID. En 1997, le système Media 100 qui a lancé ma carrière semblait être une technologie coûteuse et exotique. Il n'y avait pas d'option pour moi de travailler à domicile - mon travail tournait autour de la collection coûteuse, et donc exclusive, de matériel informatique au bureau.

Mais la première impression était faite : un raid signifiaitvitesse.

Dix ans après ma première introduction à un Media 100, le logiciel et le matériel semblaient un peu différents, mais la technologie sous-jacente était basée sur les mêmes principes. Les éditeurs avaient migré vers Final Cut Pro et des produits tels que Xserve RAID d'Apple étaient apparus pour rendre le stockage à haut débit plus simple et plus attrayant.

Les disques durs s'étaient tellement améliorés en termes de prix et de performances que la redondance est devenue une option envisageable, même pour les éditeurs. L'Apple Xserve RAID contenait un total de 14 disques durs individuels, mais deux d'entre eux étaient redondants. Ainsi, même si un disque tombait en panne, les données n'étaient pas perdues. Les suites de montage mesuraient désormais le stockage en téraoctets, et non en gigaoctets.

Au milieu des années 2000, les matrices RAID étaient plus grandes, plus rapides et moins chères que jamais, elles étaient encore - généralement - directement connectées à un seul ordinateur. Avoir plusieurs suites de montage/ordinateurs partageant le même RAID nécessitait une configuration beaucoup plus coûteuse et complexe. Les premiers RAID partagés étaient basés sur une technologie fibre-canal coûteuse et légèrement volatile, et sont devenus connus sous le nom de SAN - un réseau de stockage. Mais une approche alternative au même problème a également émergé - le NAS, ou Network Attached Storage. Un NAS n'était pas aussi rapide qu'un SAN, mais il était basé sur une technologie Ethernet existante moins chère.

J'ai participé à plusieurs événements de l'industrie faisant la promotion des premiers SAN Fibre Channel, et j'ai eu l'impression accablante qu'ils étaient incroyablement chers et étonnamment instables. Si le vendeur ne pouvait pas le faire fonctionner correctement lors d'une exposition publique, alors quel espoir avait un éditeur régulier ? Mais malgré la douleur qui accompagnait évidemment les premiers utilisateurs, il était clair que le fait d'avoir plusieurs ordinateurs partageant le même pool de stockage était plus sophistiqué et potentiellement BEAUCOUP plus productif.

Alors que la technologie sous-jacente derrière un SAN et un NAS est assez différente, pour l'utilisateur final, la seule distinction est qu'un SAN apparaît comme un lecteur local, tandis qu'un NAS est, par définition, connecté via un réseau Ethernet régulier. Le Gigabit Ethernet était bel et bien établi au milieu des années 2000 et offrait des vitesses théoriques allant jusqu'à 125 mégaoctets par seconde - plus que suffisant pour le montage vidéo.

Mais sur le plan personnel, au milieu des années 2000, je travaillais maintenant comme motion designer indépendant et je commençais à penser à conserver des copies des projets sur lesquels j'avais travaillé. Auparavant, en tant que monteur, conserver une copie d'un projet signifiait maîtriser une copie supplémentaire sur bande - et quelque part dans mon garage, j'ai toujours une boîte de bandes Betacam datant de 1997. Mais travailler en tant que motion designer dans After Effects signifiait qu'à la place de bandes, je voulais maintenant des copies de projets After Effects et de fichiers Quicktime.

Les prix des disques durs ont continué de baisser et des sociétés telles que LaCie ont lancé des disques durs portables qui ont trouvé un marché immédiat dans l'industrie du cinéma et de la télévision. Le premier disque externe de LaCie est sorti en 2003, dans les tailles 400 Go et 500 Go. Avec le modèle de 400 Go vendu au détail à 1 900 dollars australiens et le modèle de 500 Go à 2 255 dollars australiens, cela représentait un peu plus de 4 dollars le gigaoctet. C'était beaucoup moins cher que les 18 000 $ qui nous avaient été annoncés pour 18 gigaoctets de stockage en 1996 ! Avoir cette capacité dans un petit facteur de forme portable était révolutionnaire.

Au cours des années suivantes, les prix ont continué de baisser, les capacités ont augmenté et d'autres fournisseurs ont acheté des produits similaires sur le marché.

La première décennie des années 2000 a vu l'émergence des animations graphiques comme un outil essentiel pour la communication d'entreprise, tandis que les effets visuels numériques changeaient la façon dont Hollywood faisait des films.

L'adoption rapide des graphiques animés et de l'animation a entraîné la génération d'énormes quantités de données, avec des projets individuels pouvant facilement occuper des centaines de gigaoctets, voire des téraoctets, de stockage.

Pour l'agence moyenne et les petits studios, la question des sauvegardes et de l'archivage était souvent soit négligée, soit simplement ignorée. Le plus gros problème était peut-être que le coût du stockage était moins cher que le coût du travail humain pour parcourir les projets, les trier et les consolider.

Une recherche rapide sur Google suggère que l'achat d'un disque dur portable de 1 To en ce moment coûte à peu près le même prix que l'embauche d'un artiste senior pour 1 heure de travail. Le coût de 1 To de stockage pour un NAS plus grand, ou même une archive sur bande, est encore plus faible. Et une fois qu'un projet est terminé et livré, personne n'a jamais envie de le parcourir et de tout trier. C'est presque une évidence.

"Archiver" un projet simplement en copiant tout sur un disque dur externe, ou même un lecteur de bande, est relativement bon marché sur une base par gigaoctet. C'était - et c'est toujours - une pratique courante de copier des dossiers de projet entiers, avec des rendus de test redondants, des aperçus, des WIP, etc., simplement parce que c'est plus facile que le processus fastidieux - et potentiellement coûteux - d'avoir des artistes trier leur propre travail manuellement et décidez ce qui doit être conservé.

Le problème fondamental de l'archivage n'a pas changé et existe toujours aujourd'hui. Le coût d'employer quelqu'un pour seulement 1 jour est toujours beaucoup plus élevé que le coût du stockage. Une fois qu'un projet est terminé, il est toujours moins cher et plus rapide de tout copier plutôt que de le parcourir et d'essayer de faire une sorte de sauvegarde significative.

Travaillant en tant qu'indépendant, je peux être réservé pour quelques jours, quelques semaines ou quelques mois dans un studio, puis terminer et commencer à travailler ailleurs. L'utilisation d'un disque dur portable était le moyen le plus simple de conserver des copies de mon travail lorsque je me déplaçais entre différentes entreprises.

Mais même à l'approche de 2010, le coût du matériel informatique et des logiciels était encore suffisamment élevé pour que le travail à domicile soit rare. Les caméras vidéo tournaient toujours sur bande, les magnétophones étaient un mal nécessaire qui coûtait autant qu'un appartement, et en général les configurations nécessaires pour travailler avec la vidéo numérique à domicile, tout en collaborant avec un studio, étaient trop chères pour un individu.

Le logiciel n'était pas un service d'abonnement, mais quelque chose pour lequel vous payiez beaucoup d'argent sur une base annuelle. Ainsi, tout en travaillant en tant que pigiste, le fardeau et la responsabilité de fournir du matériel et des logiciels performants incombaient fermement au studio. Il en était de même pour les sauvegardes et l'archivage. Les grands studios pouvaient se permettre d'avoir un système de sauvegarde sur bande et quelqu'un pour les faire fonctionner, les petits studios continuaient d'acheter des disques externes et de les placer sur des étagères pour ramasser la poussière.

Alors que je continuais à travailler en tant que motion designer indépendant, le nombre de disques durs portables que j'achetais pour stocker tout mon travail augmentait régulièrement. Je n'étais pas seul - partout où je travaillais, il y avait des étagères de disques durs portables, certains étiquetés, d'autres non, mais tous remplis de projets non triés s'étalant sur des années. Chaque fois qu'un client appelait dans l'espoir de réviser un ancien projet ou de réutiliser des actifs existants, une panique silencieuse s'ensuivait alors que les lecteurs portables étaient récupérés sur des étagères poussiéreuses et branchés un par un, à la recherche du bon projet.

En 2007, un nouveau produit a été lancé qui a immédiatement attiré mon attention. Appelé le Drobo, il s'agissait d'un périphérique de stockage externe pouvant contenir quatre disques durs. Le Drobo avait un certain nombre de fonctionnalités qui le rendaient unique et particulièrement attrayant pour les utilisateurs à domicile comme moi.

Premièrement, le Drobo offrait une évolutivité. Au lieu d'acheter un seul disque externe, puis de le remplir et d'en acheter un autre, vous pouvez acheter des disques selon vos besoins. Le Drobo avait quatre baies de disque dur, mais vous n'aviez pas besoin de remplir les quatre disques pour qu'il fonctionne. Vous pouvez commencer avec un seul lecteur, puis lorsqu'il est plein, vous pouvez en ajouter un autre, puis un autre. Parce que vous ne payiez pas pour un nouveau boîtier et une nouvelle alimentation à chaque fois, cela revenait globalement moins cher que d'acheter quatre lecteurs portables individuels.

Deuxièmement, le Drobo offrait une redondance. Le plus gros problème avec la collecte d'étagères pleines de disques durs externes portables était leur fragilité. Si le lecteur a cessé de fonctionner, ce qui était courant, vous avez perdu toutes vos données. Mais le Drobo utilisait plusieurs disques comme RAID - avec une redondance signifiant que l'un des disques pouvait tomber en panne et que vous ne perdriez pas tout.

Enfin, Drobo avait sa propre forme propriétaire de RAID qui permettait à l'utilisateur de mélanger et de faire correspondre les tailles de disque dur, et même de remplacer les petits disques par des plus grands. Auparavant, toute personne configurant plusieurs disques en tant que RAID devait utiliser des tailles de disque dur identiques, et une fois le RAID configuré, c'était tout - la capacité du RAID était définie et ne pouvait pas être modifiée. Les RAID traditionnels étaient rapides et offraient une redondance, mais ils n'étaient ni flexibles ni extensibles.

Mais le Drobo a changé cela. Vous pouvez mélanger des disques durs de différentes tailles, et si vous remplissez tout votre espace de stockage, vous pouvez retirer l'un des plus petits disques et le remplacer par un plus grand. À l'époque, c'était une solution vraiment innovante qui semblait cocher toutes les cases. Data Robotics l'a appelé "Beyond RAID".

Le premier Drobo est sorti en 2007 et semblait être une solution brillante à tant de problèmes. À cette époque, j'avais acheté un iMac et je faisais de petits projets After Effects depuis chez moi. J'envisageais sérieusement d'acheter un Drobo, mais je me suis toujours méfié des produits de première génération, et comme mon iMac avait un nouveau port Firewire 800, j'aurais préféré quelque chose avec un connecteur Firewire 800. Même si je travaillais en tant que motion designer, une grande partie de mon travail impliquait toujours le montage vidéo, et je voulais donc quelque chose d'assez rapide pour gérer la lecture vidéo.

Début 2008, Drobo a annoncé son produit de 2e génération, qui semblait assez similaire mais comprenait un port Firewire 800. Mais ils avaient aussi une autre motivation. Je ne me souviens pas des détails exacts, mais si vous pré-commandiez le nouveau modèle, vous obtiendrez également gratuitement quelque chose appelé "Partage Drobo". Je ne savais pas ce qu'était un partage Drobo, mais ils les vendaient séparément pour quelques centaines de dollars. L'idée d'en obtenir un gratuitement semblait être une bonne affaire. J'ai donc franchi le pas et commandé un Drobo avec trois disques de 1 téraoctet.

C'était OK, je suppose.

En toute honnêteté, le Drobo a fait tout ce qu'il avait promis de faire. Il offrait une redondance, donc je n'avais pas à m'inquiéter autant de la perte de données. Il était extensible. J'ai commencé avec 3 disques et j'en ai ajouté un quatrième quand j'en avais besoin. Et puis, quand j'ai recommencé à manquer de stockage, j'ai lentement remplacé les disques de 1 To d'origine par des disques de 2 To. Ça a marché.

Mais malheureusement, c'était juste lent. Vraiment, étonnamment lent. J'avais toujours mon hypothèse initiale d'il y a 10 ans selon laquelle RAID = vitesse. Les premiers systèmes non linéaires que j'utilisais avaient tous besoin de matrices RAID pour fonctionner. Le RAID fourni avec notre Media 100 était une solution au besoin de débits de données élevés. Mais même s'il est venu avec un nouveau port Firewire 800, le Drobo n'était tout simplement pas assez rapide pour être utilisé avec un logiciel de montage vidéo. Ce n'était pas seulement la vitesse de transfert, mais la latence globale. Cela semblait juste prendre beaucoup de temps pour faire quoi que ce soit.

Plus ennuyeux, les disques du Drobo s'éteindraient pour économiser de l'énergie s'ils n'avaient pas été utilisés pendant 15 minutes. Mais cela prendrait toujours quelques secondes notables pour qu'ils redémarrent, ce qu'ils feraient chaque fois que l'ordinateur aurait besoin d'accéder à un fichier sur n'importe quel lecteur, ou même d'ouvrir un navigateur de fichiers. C'était beaucoup plus irritant que je ne peux le décrire avec précision, et malheureusement cela ne pouvait pas être désactivé sur mon modèle (le prochain modèle Drobo vous permettait de désactiver l'économie d'énergie, mais j'étais coincé avec).

Quant au Drobo Share… Je trouve intéressant d'y revenir maintenant. Je ne l'ai jamais utilisé. Je n'ai jamais vraiment compris ce que c'était. C'est un symbole de mon ignorance technique de cette époque. En 2008, je ne savais tout simplement pas ce qu'était un lecteur réseau – un NAS.

Si vous êtes curieux, alors le Drobo Share était un petit appareil qui transformait votre Drobo en NAS. Au lieu de connecter votre ordinateur directement au Drobo par un câble Firewire ou USB, vous pouvez brancher le partage Drobo et vous y connecter via Ethernet à la place. Le partage Drobo contenait un petit serveur basé sur ARM et était capable d'exécuter des applications de base, tout comme les appareils NAS modernes le sont aujourd'hui. Il permettait à plusieurs ordinateurs - Mac et PC - d'accéder simultanément au Drobo.

Pour moi, je n'ai pas vraiment compris, car en 2008, je n'avais tout simplement jamais travaillé avec un NAS auparavant. Grâce au marketing d'Apple, j'ai supposé que Firewire 800 était super rapide et il ne m'est jamais venu à l'esprit qu'il pourrait être plus lent que Gigabit Ethernet (800 est inférieur à 1000 - Gigabit Ethernet est plus rapide !). Comme je n'avais qu'un seul ordinateur – mon iMac – je n'avais pas besoin d'y connecter un autre ordinateur. Donc, il était juste assis dans un tiroir quelque part.

Si j'avais compris ce que c'était, alors peut-être que je l'aurais utilisé. Mais je me souviens avoir pensé - pourquoi voudrais-je utiliser un boîtier séparé pour connecter un disque dur avec un câble réseau, alors que je peux le connecter directement à l'aide de Firewire 800 à la place ? Cela semblait être un problème.

J'avais l'intention de le vendre, mais je n'ai jamais tout à fait surmonté le sentiment qu'il pourrait être utile, un jour (ce n'était pas le cas).

Quelques années plus tard, mon iMac a commencé à se sentir un peu vieux et lent, et je cherchais des moyens de le rendre plus rapide sans simplement en acheter un nouveau. Les SSD existaient depuis quelques années, mais ils étaient très chers. Mais si les rapports devaient être crus, alors le prix élevé en valait la peine. Ils coûtent cher, mais un SSD était toujours moins cher qu'un tout nouvel iMac. J'ai décidé d'en essayer un pour moi.

Plutôt que d'acheter un tout nouvel iMac, j'ai remplacé le disque dur rotatif d'origine par un nouveau SSD. C'était vers 2012 et c'était assez radical à l'époque - j'ai dû acheter des outils personnalisés, un support personnalisé pour que le SSD s'adapte à l'emplacement du disque dur de l'iMac et suivre attentivement un ensemble d'instructions que j'ai trouvées sur Internet. Démonter un iMac n'est pas pour les non-initiés.

Mais cela a fonctionné et le résultat a été révolutionnaire. Mon iMac ne se sentait pas seulement plus rapide, il se sentait suralimenté. C'était plus rapide que les derniers iMac. Je suis devenu un évangéliste SSD instantané. Je n'arrivais pas à croire à quel point le disque dur mécanique en rotation avait retenu le reste de mon ordinateur. J'avais vu l'avenir et l'avenir était aux SSD. Et non seulement ils étaient beaucoup plus rapides qu'un disque dur traditionnel, mais ils avaient l'impression d'être beaucoup plus robustes et fiables. Si un SSD n'a pas de pièces mobiles, il doit être beaucoup moins susceptible de tomber en panne, n'est-ce pas !

Malgré ma déception face à la vitesse du Drobo et sa capacité irritante à arrêter tout mon ordinateur toutes les 15 minutes, il a rempli sa fonction pendant de nombreuses années. Mais j'en suis arrivé au point où j'avais rempli les quatre baies avec des disques durs de 2 To, et pourtant, encore une fois, je manquais toujours d'espace. J'avais l'impression que chaque projet sur lequel je travaillais utilisait de plus en plus d'espace de stockage.

Vers 2015, j'étais au magasin de fournitures de bureau local et j'ai vu que les disques durs portables étaient désormais disponibles dans des tailles de 8 Go. Un seul disque, qui coûte environ 400 $, pourrait maintenant stocker plus que mon Drobo entier avec son RAID à 4 disques, et ce serait probablement beaucoup plus rapide aussi ! J'en ai acheté un, et le Drobo a été débranché et déplacé dans le garage, à côté de ma boîte de cassettes Betacam SP.

J'étais bien conscient que mon nouveau disque n'offrait aucune redondance, mais je me suis réconcilié avec l'idée que s'il échouait, j'avais toujours la plupart de mes archives sur le Drobo. Ce ne seraient que des projets plus récents que je perdrais. Mais je savais qu'il était temps de chercher autre chose.

Alors que j'avais acheté un Drobo parce que ses caractéristiques uniques m'attiraient, Drobo n'était certainement pas le seul fabricant à vendre des produits de stockage aux consommateurs. Parmi les autres marques bien connues, citons LaCie, Western Digital, Qnap et Synology.

Peut-être parce qu'il était bruyant et que lorsque les disques s'éteignaient puis se remettaient en marche, ils produisaient toutes sortes de clics et de bruits sourds, le Drobo rappelait constamment que les disques durs étaient un appareil mécanique. Mon expérience avec le SSD de mon iMac m'a convaincu que les SSD étaient l'avenir. Les entraînements en rotation semblaient juste… démodés.

Il y avait encore un écart notable entre les types de stockage utilisés par les particuliers et les produits des grandes entreprises utilisés dans les studios et les installations de production. En 2017, vous pouviez vous rendre dans un magasin de fournitures de bureau et acheter un disque dur portable de 1 To pour environ 100 $. Mais 1 To de stockage pour un SAN d'entreprise à haut débit peut encore coûter bien plus de 1 000 $. Les types de serveurs, commutateurs, disques durs et l'infrastructure globale de réseau/stockage utilisés par une salle remplie de motion designers et d'artistes d'effets visuels étaient encore très éloignés de tout ce que vous achèteriez au centre commercial local.

Ayant travaillé dans de nombreux studios différents, j'ai pris conscience de l'importance de la bande passante et de la vitesse du réseau pour After Effects. Chaque studio dans lequel je travaillais disposait désormais d'une forme de stockage réseau partagé, et plusieurs d'entre eux disposaient de fermes de rendu (ce que je considérais comme un grand luxe). Mais tous les studios dans lesquels j'ai travaillé utilisaient Gigabit Ethernet, qui avait un débit de données maximal théorique de 125 mégaoctets par seconde. After Effects et les logiciels de montage non linéaires pourraient facilement traiter les données à un rythme plus rapide que cela. Il était simple de mesurer la différence de temps de rendu entre le rendu local et le rendu réseau, démontrant que la lenteur était due aux vitesses de transfert de données, pas à After Effects.

J'avais commencé à planifier ma série sur "After Effects et les performances", et un aspect important de la série était l'accent mis sur la bande passante et l'appréciation de la quantité de données qu'After Effects pouvait traiter. C'était un peu ennuyeux d'entendre le mantra récurrent "After Effects est lent… After Effects est lent…" alors que c'était en fait le réseau gigabit du studio qui bloquait tout.

Alors que de nombreux artistes étaient heureux de dépenser beaucoup d'argent dans des GPU coûteux pour accélérer leurs rendus 3D, peu de gens se sont arrêtés pour réfléchir à la façon dont un stockage plus rapide pourrait aider à améliorer leurs rendus 2D. Le coût d'un SSD était inférieur au coût d'un GPU haut de gamme, et pour toute personne travaillant principalement en 2D, l'achat d'un SSD à la place pourrait avoir un impact plus important sur la vitesse et les performances de rendu.

Mais les SSD avaient leurs propres problèmes – le plus évidemment le prix et la capacité. Comparés à un disque dur rotatif ordinaire, ils coûtent beaucoup plus cher et stockent beaucoup moins.

Même si mon Drobo avait été remis au garage, je n'étais pas très motivé pour le remplacer. Alors que j'avais prolongé la durée de vie de mon iMac en installant le SSD, quelques années plus tard j'étais passé à une nouvelle box Windows. Il avait un SSD NVMe interne à haute vitesse, qui était le lecteur principal à partir duquel je travaillais. Les disques NVMe sont encore plus rapides que le disque SATA que j'avais utilisé dans mon iMac, et il pouvait transférer des données à environ 1500 mégaoctets par seconde. Au moment où je l'ai acheté, c'était à peu près aussi rapide que les SSD ordinaires.

À titre de comparaison, l'Ethernet Gigabit standard plafonnait à environ 125 mégaoctets par seconde, soit plus de dix fois plus lent. Même la norme USB-3 avait une vitesse théorique maximale de 625 mégaoctets par seconde, et les vitesses réelles seraient plus lentes.

Ainsi, tout type de lecteur externe que j'achèterais serait plus lent - beaucoup plus lent - que le SSD interne auquel j'étais habitué. De plus, comme je ne travaillais pas beaucoup à la maison, je ne manquais pas vraiment d'espace. Je viens de travailler sur mon SSD interne, puis lorsque les projets sont terminés, je les copie sur mon disque externe.

Je n'étais pas incité à chercher un remplaçant pour mon Drobo alors que tout ce que j'achetais serait plus lent que le système que j'utilisais actuellement.

Bien que j'aie été un adopteur relativement précoce du Drobo, je n'avais jamais vraiment prêté attention aux alternatives. Je savais à moitié que j'aurais éventuellement besoin de quelque chose de similaire, mais je me sentais toujours un peu brûlé par les mauvaises performances de mon Drobo.

Je me suis toujours bien entendu avec le personnel de support informatique et les autres techniciens en général, et un jour, alors que je travaillais dans un studio, leur responsable informatique m'a demandé si je voulais voir "un nouveau jouet" qui venait d'arriver. Il m'a montré une belle boîte noire qui n'était pas assez grande pour être un ordinateur.

Ce que je regardais était un tout nouveau Synology NAS, simplement appelé le FS1018. Synology produisait des appareils NAS pour les consommateurs depuis de nombreuses années, en concurrence directe avec Drobo avec des produits sans doute plus puissants. Je savais vaguement que des entreprises comme Synology et QNap existaient, mais comme je possédais déjà un Drobo, je n'y avais jamais prêté beaucoup d'attention.

Mais le FS1018 était un nouveau développement intéressant. Le FS signifiait Flash Storage. Il s'agissait d'un NAS spécialement conçu pour les SSD. Il s'agissait d'un RAID de bureau relativement petit avec un prix grand public, capable de contenir douze SSD sans un seul disque dur en vue. Les SSD étaient déjà incroyablement rapides - mais 12 d'entre eux ensemble dans un RAID ? Cette chose doit sûrement être RAPIDE !

Le responsable informatique du studio le pensait évidemment aussi, et était dans la position luxueuse de pouvoir en acheter un simplement pour le savoir. Le studio s'est spécialisé dans les événements en direct et les artistes étaient régulièrement envoyés dans divers pays du monde pour travailler sur place. Le FS1018 ressemblait à la solution portable parfaite pour un petit nombre d'artistes travaillant ensemble dans un endroit éloigné.

J'ai tout de suite senti que c'était le produit que je cherchais. Plus de problèmes de vitesse, plus de problèmes avec les disques en rotation maladroits qui s'éteignent puis se rallument. J'avais eu peur qu'un disque externe soit plus lent que le SSD interne que j'utilise actuellement, mais ce serait sûrement un match !

Mon expérience de mise à niveau de mon iMac a été une telle révélation que je n'aurais jamais pensé acheter à nouveau un autre disque dur en rotation. J'adorais les SSD, et enfin voici un RAID de bureau conçu autour des SSD dans une boîte au look cool.

Mais le plus gros problème était le prix. L'unité de base FS1018 était d'un prix raisonnable et pas plus chère qu'un NAS de bureau comparable qui utilisait des disques rotatifs. Cependant, les SSD que vous deviez installer étaient toujours terriblement chers. À l'époque, les plus gros SSD (conventionnels) avaient une taille de 2 To, bien moins que les plus gros disques rotatifs. Mais le FS1018 peut contenir 12 disques, donc le remplir avec des disques de 2 To se traduirait par un peu moins de 20 To d'espace utilisable, une fois que vous avez pris en compte le formatage et la redondance. 20 To me semblaient des charges.

J'ai rapidement estimé qu'en acheter un et le remplir avec des disques de 2 To coûterait plus de 12 000 $. Je n'avais pas 12 000 $ à dépenser, et même si j'en avais, cela semblait être une somme énorme à dépenser pour un disque dur sophistiqué. Mais les prix des SSD baissaient et j'ai suivi la même logique que lorsque j'ai acheté mon premier Drobo : je n'ai pas eu besoin de le remplir le premier jour. Je pouvais commencer avec trois disques et en ajouter d'autres quand j'en avais besoin.

Le Synology FS1018 était, dans un sens relatif, un appareil grand public. Il était beaucoup moins cher qu'un SAN industriel / NAS de niveau entreprise, mais avec un niveau de performances qui devrait facilement prendre en charge plusieurs utilisateurs. J'ai compris pourquoi notre responsable informatique en était intrigué. Grâce à la rapidité des SSD, notamment configurés en RAID, les performances étaient incroyablement attractives pour le prix. Et c'était raisonnablement portable. C'était certainement une option intéressante pour tous ceux qui envisageaient des solutions plus complexes au niveau de l'entreprise pour un petit studio. 12 000 $, c'est beaucoup d'argent pour un individu à dépenser pour 20 To de stockage, mais si vous dirigez un studio qui a dépensé plus de dix fois ce montant pour un SAN d'entreprise, cela ne ressemble pas à grand-chose du tout.

Lorsque Synology a sorti le FS1018, je n'avais pas envisagé d'autres options. Je ne savais même pas par où commencer. Mais quelques recherches de base sur Google ont confirmé que le Synology FS1018 - à ce moment-là - n'avait pas de concurrence directe. Tous les autres appareils NAS sur le marché utilisaient des disques rotatifs, même si certains d'entre eux pouvaient utiliser un ou deux SSD pour la mise en cache. J'étais tellement convaincu que les SSD étaient l'avenir que je n'étais tout simplement pas intéressé par tout ce qui utilisait des disques rotatifs. En 2018, Synology était la seule entreprise à proposer un NAS construit uniquement avec des SSD. Cela semblait être ce que je cherchais. J'ai décidé que j'en voulais un. Je devais juste trouver comment payer.

J'y ai réfléchi et j'ai conçu un plan astucieux. Je ferais un budget et planifierais à l'avance. Je n'avais pas l'habitude d'être aussi mature mais ça valait le coup. Il est simple et rapide de créer un compte bancaire en ligne et d'effectuer un virement automatique chaque mois.

Environ dix ans plus tôt, j'avais été réticent à acheter un Drobo de première génération, et maintenant j'étais réticent à acheter un modèle FS de première génération de Synology. J'ai pensé qu'au moment où Synology a publié un modèle mis à jour, je serais prêt à l'acheter. Pour le moment, je pouvais survivre avec mon disque externe de 8 To et prier pour qu'il ne meure pas.

Lorsque Covid s'est propagé à travers le monde, il a tout changé pour tout le monde. Entre autres choses, cela m'a empêché de faire une erreur coûteuse. Je n'ai pas acheté le Synology FS1018.

Comme beaucoup d'autres personnes, l'impact le plus immédiat de Covid a été que j'ai commencé à travailler régulièrement à domicile. Le travail à domicile a changé un certain nombre de mes priorités. Tout d'abord, j'ai remarqué que j'utilisais beaucoup plus d'espace de stockage que d'habitude. Avant Covid, travailler en tant que freelance signifiait se rendre dans différents studios et utiliser leur équipement – ​​et leur stockage. Toutes les archives ou sauvegardes que je conservais étaient généralement des fichiers de projet (assez petits) ou une sélection de quicktimes "finals". J'avais des archives d'environ 20 ans de travail qui s'intégraient parfaitement sur un disque dur de 8 To.

Mais maintenant, en travaillant à domicile, je découvrais que les projets individuels pouvaient prendre n'importe quoi, de 100 Go à 1 To. Je manquais d'espace, et vite. J'avais l'impression d'avoir reculé de plus de 10 ans, avec un bureau rempli de disques durs portables que je branchais ou débranchais selon mes besoins. Dans quelques cas, les studios m'avaient envoyé des disques durs portables avec des images dessus, et j'ai fini par utiliser les mêmes disques pour travailler, car je n'avais pas l'espace interne pour tout copier.

Le travail à domicile m'a également rendu responsable des données que je produisais. Je me suis inquiété de perdre des projets à cause d'une panne de disque dur. J'ai eu des visions d'une tempête provoquant une panne d'électricité, et non seulement de perdre du temps à travailler, mais aussi de découvrir que mes disques avaient été corrompus par la panne de courant. J'ai utilisé une partie de mon budget existant pour acheter un onduleur, donc en cas de panne de courant, je pourrais d'abord tout sauvegarder et arrêter mon système avec élégance.

Alors que l'industrie était sous le choc des effets de la pandémie de Covid, les projets ont ralenti, tout comme les revenus. Comme tout le monde, je n'avais aucun moyen de prédire l'impact économique à long terme que Covid aurait sur notre industrie.

Cela ne semblait pas être une bonne idée de dépenser des milliers de dollars en nouveau matériel.

Je me suis retrouvé dans une situation frustrante. J'étais dans une position où je n'avais tout simplement pas assez d'espace disque pour pouvoir faire mon travail, mais je ne me sentais pas prêt à dépenser des milliers d'euros pour une solution à long terme. Mais aller au centre commercial et acheter un autre disque dur portable pour travailler semblait être une mauvaise décision.

Avec un coup de chance, je suis tombé sur une agence qui fermait et vendait de tout, y compris des chaises, des tables, beaucoup d'iPad et quelques disques durs. Ils avaient un NAS Western Digital à 2 baies qui n'avait pratiquement pas été utilisé, et ils le vendaient à un prix avantageux. Il contenait 2 disques de 6 To pour un stockage total de 12 To, mais les disques pouvaient être configurés en RAID 1 pour offrir une redondance. C'était l'occasion d'acheter un NAS d'entrée de gamme pour moins cher qu'un nouveau disque dur portable. Cela semblait être une bonne solution à court terme.

Même s'il s'agissait d'un appareil assez simple, le NAS Western Digital me convenait parfaitement. J'étais soulagé d'avoir un certain niveau de redondance afin de ne pas tout perdre en cas de panne d'un disque. C'était une bonne introduction à ce qu'est un NAS et à son fonctionnement via des interfaces Web. J'ai acheté un commutateur réseau à 50 $ et j'ai pu connecter simultanément mes machines Mac et Windows - quelque chose de si transparent et productif que je me suis demandé si j'aurais dû persévérer avec le Drobo Share il y a toutes ces années.

J'ai régulièrement des rendus de projets After Effects sur ma machine Windows tout en faisant le suivi Syntheyes sur mon Mac. Les deux machines lisent les mêmes fichiers sur le même dossier. Cela fonctionne si bien, et de manière si transparente, que je ne peux pas croire que j'ai passé des années à copier divers fichiers sur des clés USB pour les déplacer. Ma configuration à la maison avait maintenant le même niveau de fonctionnalité que j'attendais de tous les studios pour lesquels j'avais travaillé. C'était bon.

Et enfin, une autre chose que Covid a changée était le temps libre. Alors que les projets et le travail en général se tarissaient, j'ai pris le temps de passer au crible tous mes anciens disques et de tout trier. Je savais que le NAS Western Digital n'était qu'une solution à court terme, mais je me suis dit que si je commençais à m'organiser, lorsque j'achèterais quelque chose de plus permanent, je pourrais tout copier.

Je n'avais jamais prêté beaucoup d'attention au marché des NAS, et jusqu'à ce que je voie le FS1018, je ne connaissais pas grand-chose à Synology. Mon hypothèse était qu'ils mettraient régulièrement à jour leurs produits, tout comme les autres entreprises technologiques. J'ai senti que la plus grande lacune du FS1018 était le manque d'Ethernet 10 gigaoctets - comment un périphérique réseau aussi rapide pourrait-il ne pas avoir d'Ethernet 10 gigaoctets intégré? Il y avait toujours la possibilité qu'un modèle amélioré sorte avec plus de RAM, un processeur plus rapide et 10 Go Ethernet en standard. Ce modèle de 2e génération serait celui qu'il me faut.

De temps en temps, je consultais le site Web de Synology pour voir s'il y avait des nouvelles sur les mises à jour. Au fil du temps, j'ai oublié. Synology ne semblait pas mettre à jour ses produits très souvent, et comme ce n'était pas une de mes priorités, je l'oublierais pendant des mois. Je n'étais pas exactement désespéré de dépenser beaucoup d'argent. Finalement, après plusieurs années, j'ai enfin vu le communiqué de presse que j'attendais. Synology avait sorti une nouvelle unité FS.

Mais la mise à niveau - si vous pouvez l'appeler ainsi - n'était pas ce à quoi je m'attendais.

Vers le début de 2022, Synology a sorti un nouveau modèle d'entrée de gamme dans sa gamme FS, le FS2500. Mais ce n'était pas une version améliorée du FS1018 - c'était un remplacement plus performant. Le FS1018 a été abandonné.

Le nouveau FS2500 est un appareil monté en rack, pas un boîtier de bureau. Il est plus puissant que le FS1018 à tous points de vue - processeur plus rapide, plus de RAM, Ethernet 10 Go intégré. Il dispose même d'alimentations redondantes.

Mais le prix reflète cela - l'unité de base est plus du double du prix de l'ancien FS1018. Le FS2500 n'est pas un appareil pour un seul utilisateur travaillant à la maison. Je pense toujours que c'est une option intéressante pour les petits studios, et c'est toujours une alternative économique aux systèmes NAS et SAN de niveau entreprise. Mais ce n'est pas un appareil grand public.

Au cours des dernières années, ma banque avait automatiquement mis de l'argent de côté chaque mois pour du nouveau matériel. Mais maintenant, le matériel pour lequel j'avais économisé venait d'être abandonné sans remplacement immédiat. Il était temps de chercher une autre solution.

Je voulais à l'origine un FS1018 à cause d'une hypothèse. J'ai simplement supposé que les SSD étaient l'avenir et que les disques rotatifs étaient démodés. Et à part regarder autour de moi pour voir si d'autres fabricants avaient des produits uniquement SSD, je n'avais jamais fait de recherche réelle.

Mon autre hypothèse était que tout périphérique externe serait plus lent que le SSD interne à partir duquel je travaillais - c'était aussi la raison pour laquelle j'étais réticent à acheter quoi que ce soit.

Mais comme le FS1018 avait été arrêté, j'avais besoin d'un nouveau plan, et pour la première fois j'ai cherché des conseils. J'ai demandé à des amis, des collègues de travail, vérifié des critiques en ligne et commencé à regarder de nombreuses vidéos YouTube publiées par NASCompares - une ressource inestimable.

Très vite, j'ai réalisé que certaines de mes hypothèses de base étaient tout simplement fausses. Premièrement, il était clair que les disques rotatifs avaient un long avenir devant eux, en particulier sur la base du coût par gigaoctet. Mais – plus surprenant pour moi – la différence de vitesse entre un NAS externe et mon SSD interne n'est peut-être pas aussi importante que prévu.

Dans le cadre d'une utilisation régulière et quotidienne, mes repères SSD NVMe internes sont d'environ 1 500 mégaoctets par seconde. Mais l'Ethernet 10 gigabits a un maximum théorique de 1 250 mégaoctets par seconde. La différence n'est pas si énorme. Et même si je craignais que les disques en rotation soient beaucoup plus lents qu'un SSD, la plupart des boîtiers NAS pouvaient utiliser les SSD comme cache pour augmenter les vitesses. Et plus il y a de disques utilisés dans le NAS, plus les vitesses de transfert sont rapides.

Donc, intégrer Ethernet 10 gigaoctets dans l'équation, passer d'un NVMe interne à un NAS externe ne devrait pas être aussi pénible que je l'avais d'abord pensé.

Mais c'est la différence de capacités qui m'a finalement vendu. Les SSD sont devenus plus gros et moins chers, mais les disques durs aussi. Lorsque j'ai regardé le FS1018 pour la première fois, les plus grands SSD réguliers étaient de 2 To. Maintenant, les SSD de 4 To sont courants. Mais les disques durs en rotation devenaient également plus gros et moins chers. Pour le même prix qu'un SSD de 4 To, vous pouvez acheter un disque rotatif de 14 To.

Maintenant que je travaillais à domicile, j'avais besoin de beaucoup plus de stockage qu'auparavant. Il y a quatre ans, je pensais que 20 To de stockage me dureraient dans un avenir prévisible. Maintenant, j'en avais probablement autant sur mon bureau sur divers lecteurs portables.

Acheter un NAS qui n'utilisait que des SSD n'était plus réaliste.

De nombreuses critiques de NAS que j'ai consultées ont demandé si le modèle X était adapté au montage 4K. Il semble que de nombreux éditeurs vidéo s'intéressent aux critiques de NAS, et je peux comprendre pourquoi. J'y ai toujours prêté attention car j'avais l'impression que les personnes travaillant avec la vidéo 4K avaient des exigences similaires aux miennes, mais à une exception près.

Bien que le NAS de bureau moyen utilise des disques rotatifs, beaucoup d'entre eux ont également la possibilité d'utiliser un SSD comme cache, ce qui peut évidemment transférer les données beaucoup plus rapidement. Étant donné qu'After Effects dispose d'un cache disque depuis si longtemps, je connaissais le concept et je supposais qu'un cache SSD fonctionnerait de la même manière. Les fichiers couramment utilisés seraient mis en cache sur le SSD et pourraient être consultés et transférés beaucoup plus rapidement qu'à partir des disques rotatifs. Cela améliorerait la latence ainsi que les débits de données brutes.

Mais en ce qui concerne le montage vidéo, en particulier les personnes travaillant avec des fichiers vidéo plus volumineux, un certain nombre de critiques ont suggéré qu'un cache SSD ne fait que peu ou pas de différence. Le problème avec le montage vidéo est que les fichiers de métrage peuvent être si volumineux que seuls quelques clips peuvent rapidement remplir le cache, ce qui annule son utilité.

Je pouvais comprendre cela, car j'ai travaillé sur des projets où les prises individuelles d'une caméra haute résolution ont varié entre 20 et plus de 100 gig chacune. Lorsque votre cache SSD ne fait que quelques centaines de gigaoctets, mais que vous traitez des fichiers individuels d'environ 50 gigaoctets en moyenne, il est facile pour le système de cache d'être submergé.

Mais dans mon cas, la majorité des actifs avec lesquels je travaille sont des séquences EXR. Bien que je reçoive régulièrement des rushs de caméra bruts qui peuvent être ÉNORMES, la première chose que je fais est de convertir les clips sélectionnés en séquences EXR découpées. Traiter de nombreux petits fichiers plutôt qu'un seul fichier géant est exactement ce à quoi servent les caches. Bien que j'ai noté les avertissements en ligne selon lesquels les caches SSD ne sont pas une bonne chose pour tous les éditeurs vidéo, j'ai décidé qu'un cache SSD serait très utile pour quiconque travaille avec la 3D et les graphiques animés.

Depuis plusieurs années, j'attendais d'acheter un NAS uniquement SSD mis à niveau, mais maintenant ce n'était plus une option, j'avais besoin d'un nouveau plan. Et je devais agir rapidement, car même mon tout nouveau disque Western Digital était presque plein. Il ne me faudrait que quelques mois avant de me retrouver dans la situation où je n'avais pas assez d'espace disque pour travailler. Au cours des dernières années, j'avais attendu Synology, mais maintenant que ce plan était abandonné, il n'y avait plus aucune raison d'attendre.

En essayant de déterminer ce qu'il fallait acheter, j'ai réalisé que j'avais 3 décisions de base : quel type de NAS, quel type de disques et quel type de commutateur réseau de 10 Go.

À certains égards, le NAS était la décision la plus facile. J'étais à la recherche d'un NAS de bureau ordinaire avec des disques rotatifs, et il existe de nombreuses informations et critiques couvrant le marché des NAS de bureau. Les gens semblent aimer les critiques et Internet est heureux de les fournir.

La vitesse globale était toujours ma principale priorité, car je redoutais le retour en arrière de mon lecteur NVMe interne. J'ai donc commencé par regarder les unités NAS de bureau qui avaient 10 gigabits Ethernet. En termes de redondance et de capacité, j'ai pensé que j'aurais besoin d'au moins 6 disques. J'avais toujours prévu de configurer le NAS avec 2 disques redondants, et donc un NAS à 4 baies aurait été trop petit.

La recherche d'un NAS à 6 baies avec Ethernet 10 Go a rapidement révélé le Synology 1621xs+, et cela semble être un très bon appareil. Il y a beaucoup de critiques positives et il a reçu l'approbation de la chaîne YouTube NAS Compares. Mais en faisant des recherches de base, j'ai découvert qu'il s'agissait d'une version premium du 1621+ plus basique (celui sans xs). Le Synology 1621+ n'était pas livré avec autant de RAM ou d'Ethernet 10 gigaoctets, mais vous pouvez le mettre à niveau pour qu'il le fasse. Une fois que vous l'avez un peu renforcé pour correspondre aux spécifications du 1621xs +, le coût était en fait à peu près le même. C'était un peu frustrant, car je m'attendais à ce que Synology rende la version xs+ un peu plus attrayante. Si la différence de prix entre le 1621xs+ et le 1621+ avec tous les extras ajoutés était plus importante (c'est-à-dire si le xs+ était moins cher), je l'aurais acheté.

J'étais encore paranoïaque à propos des vitesses de transfert globales, et lorsque j'en parlais à l'un de mes amis, il m'a suggéré de me pencher sur l'agrégation de liens. L'agrégation de liens est l'endroit où les appareils utilisent plusieurs ports réseau pour augmenter leurs vitesses de transfert. C'est un peu comme le RAID mais pour les réseaux. Les données réseau sont réparties sur plusieurs ports et envoyées sur plusieurs câbles, ce qui augmente les taux de transfert globaux. L'utilisation de 2 ports peut doubler les vitesses, 4 ports peuvent les quadrupler et ainsi de suite. Alors que l'Ethernet 10 gigaoctets a une vitesse maximale théorique d'environ 1 250 mégaoctets par seconde, en utilisant l'agrégation de liens et 2 ports réseau, cela peut être doublé. 2 500 mégaoctets par seconde sont à égalité avec les disques NVMe hautes performances et comparés à mon ancien SSD, c'est encore plus rapide.

Pour moi, c'était une excellente nouvelle. La peur de mettre à niveau mon système mais de voir tout aller plus lentement commençait à s'estomper. L'agrégation de liens a semblé résoudre mes prières - mais il y avait un problème. L'agrégation de liens n'est prise en charge que sur les commutateurs haut de gamme. J'aurais besoin d'un commutateur géré, pas seulement d'un modèle générique de base. Je savais déjà que si j'achetais un périphérique Ethernet 10 gigaoctets, je devrais mettre à niveau mon commutateur de réseau domestique vers un modèle Ethernet 10 gigaoctets, mais cela n'allait pas être aussi bon marché ou facile que je l'espérais.

Bien que le Synology 1621xs+ soit livré avec un port Ethernet 10 gigaoctets en standard, il n'avait qu'un seul port. Cela excluait l'agrégation de liens. Alternativement, si j'achetais le modèle 1621+ moins cher, je pourrais installer une carte réseau 10 Go à double port. Cela me donnerait l'option d'agrégation de liens, tout en étant globalement moins cher. Cela semblait être le meilleur choix.

Et puis, grâce aux avis sur Internet, j'ai réalisé que Synology fabriquait également un NAS à 8 baies appelé le 1821+. C'était essentiellement le même que le 1621+, mais il avait 2 baies de lecteur supplémentaires. La différence de coût était assez faible. Au moment où j'ai additionné tous les extras - y compris une carte Ethernet 10 Go, plus de RAM et de cache SSD - le coût total du 1821+ gonflé était à peu près le même que celui du 1621xs+, mais j'avais 2 baies de lecteur supplémentaires.

J'ai demandé à l'un de mes amis de confiance - Y a-t-il une raison de ne pas acheter un 8 baies au lieu d'un 6 baies ? Et sa réponse a été - optez toujours pour le plus de baies. Cela avait du sens. J'achetais cet appareil pour l'avenir. J'espère qu'il me durera plus de 7 ans. Avoir 8 baies permet non seulement plus de capacité, mais aussi des vitesses plus élevées. Avoir 8 disques pour faire le travail est plus rapide que 6.

Donc, en suivant cette chaîne de pensée, j'avais décidé quel NAS acheter - le Synology 1821+, que je mettrais à niveau avec un double Ethernet 10 gigaoctets.

J'ajouterai que j'ai vérifié d'autres marques et des produits comparables, et j'ai particulièrement regardé la gamme Qnap. Mais finalement, j'ai opté pour le Synology.

Je ne savais pas qu'il y avait autant d'options avec les disques durs jusqu'à ce que je les achète. Outre les différentes marques, dont Seagate et Western Digital, il existait différentes gammes. Western Digital propose 6 gammes différentes de disques durs, nommés d'après des couleurs. Seagate propose également plusieurs options, notamment sa gamme "Ironwolf". Mais certains disques ont été désignés "Pro", d'autres "Enterprise" et d'autres simplement "NAS". Quelle était la différence entre un disque dur "NAS" et un disque dur "entreprise" ? Je n'en avais aucune idée.

Ce qui était plus déroutant, c'était le prix. C'était comme si chaque fois que je vérifiais le prix, c'était différent. Les prix des disques durs semblaient fluctuer plus que le marché boursier. Et souvent, cela n'avait pas de sens. Pour moi, cela ressemblait à un disque dur "d'entreprise" devrait être plus cher qu'un disque dur "Pro" plus basique - mais souvent ce n'était pas le cas.

Je n'ai pas compris.

Pendant des mois, j'ai trouvé cela extrêmement déroutant. J'ai lu des articles et regardé des vidéos YouTube, et j'ai trouvé une certaine consolation que beaucoup d'autres étaient tout aussi confus que moi. Apparemment, parce que les disques durs de niveau "entreprise" sont achetés en si grand nombre par les centres de données, ils finissent souvent par être moins chers que les disques durs destinés aux consommateurs. Les fluctuations de prix représentent l'offre et la demande actuelles du marché. Aussi contre-intuitif que cela puisse paraître, les disques durs les moins chers peuvent être de meilleures options que les plus chers.

À un moment donné, j'ai commencé à me tourner vers les disques "Gold" de Western Digital. Ils ont été classés comme "Entreprise", avec un grand MTBF - ou temps moyen entre les pannes. Cela signifiait qu'ils étaient fiables. Ils étaient - à l'époque où je les ai achetés de toute façon - moins chers que les disques de même taille destinés au consommateur.

Finalement, j'ai réalisé que je pouvais passer des mois à peser le pour et le contre de chaque type, et finalement cela n'aurait probablement pas d'importance. Une fois mon nouveau NAS opérationnel, je n'y penserais plus jamais. Je ne voulais pas m'y attarder, alors j'ai décidé d'opter pour les disques Western Digital Gold et de ne pas m'en soucier.

Maintenant que j'avais choisi un NAS et les disques, tout ce dont j'avais besoin pour compléter le package était un commutateur Ethernet 10 gigaoctets. Mais c'est là que j'ai trouvé ça vraiment difficile. En fait, c'est la partie qui m'a ralenti. J'ai passé des mois à étudier les commutateurs Ethernet 10 gigaoctets.

J'ai aimé l'idée de l'agrégation de liens, surtout dans une perspective d'avenir. Qui peut dire ce qui se passera dans les 7 prochaines années ? Il y aura peut-être un moment où j'aurai plusieurs ordinateurs et une mini ferme de rendu. Je ne voulais pas faire un achat à court terme.

D'un autre côté, les commutateurs gérés qui prennent en charge l'agrégation de liens étaient très chers - dans certains cas, je passais par un outil de recherche de produits sur un site Web et je finissais par me recommander quelque chose qui coûtait des dizaines de milliers de dollars. Même si l'Ethernet 10 gigaoctets existe depuis longtemps, il semble qu'il ne soit pas encore tout à fait entré sur le marché grand public.

Il y avait un certain nombre de commutateurs 10 gigaoctets de base non gérés, mais ils n'offraient aucun type de contrôle. Ils n'étaient pas super bon marché non plus. Lorsque j'ai acheté mon commutateur Gigabit Ethernet, mon fidèle boîtier Netgear avait coûté moins de 50 $. Mais maintenant, même un simple commutateur 10 gigaoctets non géré en comptait quelques centaines. Si je voulais l'agrégation de liens, je devrais payer encore plus. Mais combien valait-il ?

De tout le processus, j'ai trouvé que c'était la décision la plus difficile. J'ai changé d'avis tous les 2 jours. Dois-je simplement acheter un commutateur de base bon marché pour le moment et si j'ai besoin de quelque chose de plus rapide, puis mettre à niveau à l'avenir ? Ou devrais-je payer plus maintenant et avoir tout ce qu'il faut pour l'avenir ?

J'avais regardé sans rien faire des produits potentiels pendant des mois, et j'avais une page pleine de notes griffonnées. Finalement, je n'ai pu trouver que 3 commutateurs Ethernet gérés de 10 gigaoctets sur le marché qui coûtaient moins de 1 000 $. L'un d'eux n'était pas en stock en Australie, ce qui l'a réduit à deux. À certains égards, n'avoir que deux choix facilite les choses.

J'avais espéré dépenser moins de 500 $ sur un commutateur de 10 gigaoctets. Cela semblait juste être un joli chiffre rond. J'ai passé des mois à vérifier les options d'occasion, mais rien de convenable ne s'est présenté. Finalement, j'ai décidé d'arrêter de m'inquiéter et de faire un achat. Cela faisait maintenant plus de 4 ans que j'avais vu le FS1018 pour la première fois et j'avais besoin de plus d'espace de stockage, et bientôt.

J'ai choisi un commutateur géré par Qnap d'entrée de gamme, car je pensais que Qnap fabriquait également des périphériques NAS, alors leurs commutateurs conviendraient probablement bien à ma configuration. Le Qnap M408-4C avait de bonnes critiques, combinait des ports 10 gigabits avec l'Ethernet gigabit existant et, surtout, il prenait en charge l'agrégation de liens. Cela a coûté plus cher que je ne l'espérais, mais en même temps, j'étais heureux d'acheter quelque chose auquel je n'aurais plus à penser avant de nombreuses années.

Il existe de nombreux trous de lapin dans lesquels vous pouvez tomber sur Internet, et en ce qui concerne l'Ethernet 10 gigaoctets, l'un d'eux concerne les types de connecteurs et de câbles. Contrairement à l'Ethernet standard, qui utilise des câbles et des connecteurs RJ-45, il existe plusieurs options différentes pour l'Ethernet 10 gigaoctets. J'ai commencé à chercher mais j'ai fini par abandonner. J'ai mieux à faire que de penser aux câbles et aux connecteurs.

Le commutateur Qnap que j'avais choisi prend en charge les deux types, donc je n'ai pas eu à me soucier de ce problème particulier.

Une fois que j'avais établi ma liste de courses, c'était assez éprouvant pour les nerfs d'appuyer sur le bouton et de tout acheter. J'avais tout dans mon panier mais je ne pouvais pas me résoudre à le faire. Lorsque j'ai pris une profonde inspiration et que j'ai finalement cliqué sur le paiement, tant de temps s'était écoulé que mon panier s'était automatiquement vidé et j'ai dû tout ajouter à nouveau.

Cela faisait presque exactement 4 ans que j'avais vu le FS1018 et que j'avais décidé de budgétiser un NAS approprié. Maintenant, j'avais opté pour un système complètement différent, après avoir passé des mois et des mois à lire des critiques, des articles et à regarder des vidéos YouTube.

Il y a eu quelques retards dans l'assemblage de toutes les pièces, principalement parce que j'avais commandé 8 disques et que mon fournisseur n'en avait que 2 en stock. Mais après quelques semaines, tout est arrivé et le sol de mon bureau était couvert de cartons.

J'étais au milieu d'un projet et je savais qu'il ne fallait pas essayer de tout mettre à niveau avant la date limite de livraison. J'avais attendu quatre ans, quelques jours de plus ne changeraient rien.

Tout configurer était étonnamment – ​​presque décevant – facile. Je pensais que le configurer et tout échanger pourrait prendre une journée. Au final, cela a pris moins d'une heure. J'ai été surpris de ne même pas avoir besoin d'un tournevis pour installer les disques dans le NAS - tout s'est enclenché. Les mises à niveau de RAM, le cache SSD et les cartes Ethernet 10 Go ont tous été installés en quelques minutes seulement. C'était super facile.

De même, débrancher mon ancien commutateur Netgear et le remplacer par le nouveau Qnap était également totalement indolore. Avoir un commutateur hybride qui acceptait l'Ethernet gigabit standard ainsi que le 10 giga a bien fonctionné pour moi, j'ai pu simplement brancher mes câbles existants sans aucun problème et faire passer les câbles de 10 gigaoctets vers le nouveau NAS.

Tout a fonctionné exactement comme prévu une fois que je l'ai allumé, et après avoir configuré le logiciel - grâce à quelques tutoriels YouTube - j'étais prêt à commencer à copier des fichiers. J'ai commencé avec mon NAS de 6 To et j'ai été une fois de plus surpris de la rapidité avec laquelle tout a été copié. J'étais reconnaissant d'avoir déjà passé du temps à trier beaucoup de mes anciens fichiers.

J'ai parcouru tous les disques durs portables et clés USB que je possédais et je me suis assuré que chaque fichier que j'avais était transféré sur le NAS. Jusqu'à présent, mon principal disque de travail était le SSD NVMe interne de 2 To. Il contenait tous les projets sur lesquels j'avais travaillé au cours des derniers mois. Je les avais copiés sur le nouveau NAS, mais l'étape suivante consistait à effacer le disque et à l'utiliser comme disque cache After Effects.

Quelques années plus tôt, j'avais pensé qu'avoir un NAS de 20 To me durerait des années. Mais au moment où j'ai fini de copier tout ce que j'avais déjà sur mon nouveau NAS, j'avais déjà utilisé environ 16 To d'espace. Il ne s'agissait pas seulement de mes dossiers de travail et de mes archives professionnelles. Des choses comme la sauvegarde de mon ordinateur portable et la configuration de la machine à voyager dans le temps, la sauvegarde des téléphones, des iPads, etc., s'ajoutent au total. Il y avait des projets plus anciens qui se trouvaient sur des disques que je n'avais jamais consolidés dans mes "sauvegardes" principales. Dans l'ensemble, j'avais beaucoup plus de choses que je ne le pensais.

Avec le recul, je suis content d'avoir choisi d'avoir beaucoup plus de capacité grâce à l'utilisation de disques rotatifs, et pas seulement de SSD. C'est bien de savoir que tout est là, sur un système avec redondance à deux disques, et raisonnablement bien trié.

J'ai été surpris de la rapidité avec laquelle tout était opérationnel. La dernière étape consistait à formater mon lecteur NVMe interne et à l'affecter en tant que cache disque After Effects.

Avant de franchir cette dernière étape, il était temps de faire un point de repère. Pendant des années, j'avais peur que tout disque externe que j'utilisais soit plus lent que mon SSD interne. Cette hypothèse était la principale raison pour laquelle j'avais retardé l'achat d'un NAS approprié et redondant pendant si longtemps. Mais maintenant, il était temps de le découvrir pour de vrai.

Je savais que parce que j'avais installé un cache SSD dans le NAS, toute référence régulière ne refléterait pas l'utilisation réelle d'After Effects. J'ai exécuté plusieurs fois le benchmark AJA et les résultats variaient, mais je semblais obtenir des taux de transfert stables compris entre 600 et 800 mégaoctets par seconde. Cependant, lors de la copie de gros lots de fichiers, le taux de transfert peut parfois atteindre plus de 1000. Dans l'ensemble, je suis vraiment satisfait de la vitesse de tout, mais je voulais toujours savoir comment se déroulerait un projet After Effects réel.

Le dernier projet que j'ai réalisé sur mon disque interne était un bon candidat pour l'analyse comparative, car il était typique des types de projets que je fais régulièrement. Il s'agissait d'un projet 4K qui impliquait de nombreuses couches d'éléments rendus en 3D. Les couches 3D ont toutes été rendues sous forme de séquences EXR.

En commençant par le projet existant sur le lecteur interne, j'ai vidé mon système - les caches purgés, etc., et rendu à partir de zéro sans rien d'autre en cours d'exécution sur ma machine. Le temps de rendu était d'environ 3 heures. Ensuite, j'ai purgé / effacé tout à nouveau et rendu à nouveau. Le temps de rendu était le même, à moins de 15 secondes. Cela semblait être un résultat précis.

Ensuite, j'ai tout effacé et purgé à nouveau et rendu le même projet à partir de mon nouveau NAS. Il a rendu en environ 2 heures 45 minutes - en d'autres termes, environ 15 minutes plus vite, soit environ 10 % plus vite. C'était complètement inattendu. Je ne savais pas pourquoi le rendu depuis le NAS externe serait plus rapide que depuis le SSD interne. J'ai tout effacé / purgé et rendu à nouveau. Même résultat, dans les 15 secondes.

Je n'ai pas d'explication pour ce mystère, mais c'est un mystère agréable à avoir.

Depuis le Covid, je travaille en permanence depuis chez moi. Il est important d'avoir un bureau à domicile et une configuration à domicile fonctionnelle et confortable. Avoir un bon NAS signifie que je n'ai plus honte de regarder mon bureau et son assortiment de disques portables. C'est agréable de pouvoir entrer dans mon bureau à domicile pour commencer à travailler et se sentir heureux et à l'aise avec mon ordinateur.

C'était un long blog personnel mais j'écris des articles sur After Effects depuis plus de 20 ans. Découvrez-les ici !

Destination incontournable des cinéastes pour l'équipement de pré-production, de production et de post-production !

Wow Chris, tu as fait quelqu'un qui ne lit normalement pas de longs articles… lire un long article, bravo. Je dois dire que j'ai surtout continué à lire car j'étais curieuse de connaître votre chemin ainsi que votre destination finale. Mais aussi, c'était une pièce incroyablement bien écrite – je ne suis pas un assassin de grammaire/faute de frappe, mais je n'ai rien à lui reprocher. J'étais dans une situation similaire, mais avec loin d'être le même niveau d'urgence. L'évolution de mes données n'a pas été la même que la vôtre, mais l'essentiel est que nous ayons tous les deux trouvé une solution qui nous convenait personnellement. Tout le meilleur du Royaume-Uni. Chris PS Google a suggéré votre article sur mon téléphone.

Ouah. Excellent article. Je ne me souviens pas de la dernière fois où j'ai lu quelque chose d'aussi long du début à la fin. Merci pour votre temps et vos efforts pour l'écrire.

Ce fut une lecture extrêmement difficile. J'ai l'impression que tu me dois de l'argent.

La seule raison pour laquelle je n'ai pas arrêté était parce que je voulais savoir si l'agrégation de liens fonctionnait pour vous.

J'exécute une carte SPF + 10 Go à double port directement sur mon NAS (aucun commutateur impliqué) et je n'arrive pas à faire fonctionner l'agrégation de liens car j'ai besoin de Windows 10 Server.

À l'avenir, embauchez un éditeur hors de Fivver ou quelque chose comme ça.

Ne laisse pas les opposants t'abattre Chris. Vous faites vous.

Pour votre information, si vous activez les packages bêta dans Synology et téléchargez le nouveau client SMB, vous pouvez activer le "multicanal" qui utilise plusieurs ports non gérés sur votre commutateur. En supposant que votre client est Windows.

De nos jours, la bonne réponse pour les réseaux 10G est également Mikrotik. Si vous optez pour la voie SFP +, vous pouvez utiliser des câbles DAC qui sont très bon marché et vous pouvez obtenir des cartes SFP + mellanox connect-x 3 sur eBay pour environ 15 $ chacune. Nous en avons tellement maintenant au bureau que je ne sais même pas quoi en faire. Vous pouvez même les utiliser dans un Synology et économiser 150 $ sur les cartes de marque. L'utilisation de SFP+ signifie également que vous pouvez acheter des commutateurs 100Gbe et utiliser une répartition QSFP+ (quad SFP+) et desservir 4 ordinateurs à partir d'un seul port. https://www.servethehome.com/mikrotik-crs504-4xq-in-review-momentus-4x-100gbe-and-25gbe-desktop-switch-marvell/

Si cela ne vous dérange pas vraiment de vous salir les mains avec du matériel d'occasion, le matériel 40gbe est assez bon marché sur eBay.

ans Pas cher, ou rapide, ou fiable Redondance redondante 4 est la vitesse minimale en nombre Travailler en isolement Les disques qu'ils changent Gros atouts Pas mon problème Robotique de données : Au-delà du RAID Drobo : 4 baies de déception SSD : Voir l'avenir Entrer dans le garage Au-delà du RAID Pas pressé de revenir en arrière Flash… ah ahhhh Budget Covid Western Digital : 2 Baies de bonne chance Ce n'est pas le NAS que vous recherchez Faites-vous tourner en rond Cache en main 3 nouveaux problèmes Lier les agrégats Vous faire grimper au mur Switched sur Appuyez sur le bouton Trop facile Plus qu'il n'y paraît Un dernier mystère