banner
Centro de Noticias
Precio de fábrica competitivo y gran calidad.

Por qué finalmente compré un Synology NAS para After Effects por Chris Zwar

Apr 28, 2023

Cómo aprendí a dejar de preocuparme y a amar hacer girar los discos duros

Al comenzar el nuevo año, es natural mirar hacia atrás en 2022 y reflexionar sobre los últimos doce meses. Si bien Adobe continuó implementando nuevas funciones y actualizaciones de After Effects, el cambio más notable para mí fue actualizar mi oficina en casa con un Synology NAS. Esto era algo que había estado planeando durante años; de hecho, lo había estado pensando durante tanto tiempo que me sorprendí cuando finalmente sucedió.

Comprar una nueva pieza de hardware puede ser emocionante. Pero dependiendo de sus circunstancias, también puede ser tedioso o estresante, o si se apresura a reemplazar algo inesperadamente, simplemente irritante. Despuésaños de procrastinación, 2022 fue el año en que finalmente compré un NAS "adecuado". Cuando era más joven, habría encontrado esto increíblemente emocionante. Ahora que soy mayor, fue un proceso mucho más tedioso.

Este artículo no es una revisión, ni un punto de referencia, ni siquiera un consejo de compra. Es simplemente un blog personal de los procesos de pensamiento por los que he pasado a lo largo de los años, a medida que la tecnología y las circunstancias laborales han cambiado.

La revolución del video de escritorio, y específicamente la edición no lineal, recién estaba surgiendo cuando estaba en la universidad en la década de 1990. Las computadoras de escritorio, por sí solas, no eran lo suficientemente poderosas para reproducir archivos de video. Pero compañías pioneras como Lightworks, Avid y Media 100 introdujeron tarjetas de video revolucionarias que permitieron que una Mac o PC regular reprodujera video con "calidad de transmisión".

Los discos duros eran parte del problema. Un solo disco duro no era lo suficientemente rápido para leer los datos necesarios para la reproducción de video. La solución fue utilizar una matriz de varios discos duros para dividir la carga de trabajo y aumentar el rendimiento. Esto generalmente se conoce como RAID, un acrónimo de Matriz redundante de discos independientes (o económicos). La computadora trata las unidades como un solo dispositivo: un solo volumen, como un disco duro normal. Pero los archivos se dividen y distribuyen en todos los discos de la matriz, compartiendo el trabajo de lectura y escritura y aumentando la velocidad general.

Las matrices RAID se desarrollaron en la década de 1980, cuando el mercado de las computadoras domésticas creció rápidamente. El costo más bajo de los dispositivos de consumo los convirtió en opciones económicamente viables para los sistemas mainframe tradicionales, sin embargo, el mundo corporativo exigía confiabilidad.

En el mundo de los negocios, el aspecto más importante de una matriz RAID es la redundancia, lo que significa que no se pierden datos si falla una unidad. Se desarrollaron varios tipos de RAID que usaban diferentes técnicas para distribuir datos en varios discos duros, con diversos grados de redundancia.

Pero a medida que surgió la edición no lineal en la década de 1990, casi siempre se pasó por alto la redundancia que definía una matriz RAID. Lo que necesitaban los editores de video era velocidad bruta (las velocidades de datos más rápidas posibles) y la redundancia simplemente ralentizaba todo. Los editores no lineales usaban matrices RAID sin redundancia porque se necesitaban varias unidades para alcanzar las altas velocidades de datos necesarias para la reproducción de video. Si fallaba una sola unidad, se perdían todos los datos.

Como todo el hardware de video en la década de 1990, todo era mucho más caro de lo que es ahora. En 1995, en dólares australianos, una configuración RAID de escritorio le costaría incluso $ 1,000 por gigabyte. La matriz de 18 GB que nos cotizaron por primera vez, compuesta por cuatro unidades Seagate Barracuda separadas, costaba $ 18,000.

Hasta mediados de la década de 1990, los discos duros más grandes disponibles tenían una capacidad de alrededor de 4 ½ gigabytes. Eso fue lo más grande que consiguieron, pero no lo suficientemente grande para video. La edición de video siempre ha necesitado una gran cantidad de almacenamiento, por lo que los sistemas de edición típicos de esa época usaban un RAID con al menos 4 unidades, para una capacidad total alrededor del rango de 18 gigabytes. Tener 4 unidades en la matriz también garantizó velocidades de transferencia rápidas, junto con los dolores de cabeza asociados con SCSI: diferentes tipos de SCSI, ID de SCSI, cadenas SCSI temperamentales y cables increíblemente caros. Si pudiera permitírselo, podría tener más de cuatro unidades en su RAID, pero eso también aumentaba el riesgo de que una falla de una sola unidad detuviera todo el sistema.

Esta fue mi primera introducción al concepto de RAID. En 1997, el sistema Media 100 que inició mi carrera parecía una pieza de tecnología costosa y exótica. No había ninguna opción para mí de trabajar desde casa: mi trabajo giraba en torno a la colección costosa y, por lo tanto, exclusiva de hardware de computadora en la oficina.

Pero la primera impresión estaba hecha: un RAID significabavelocidad.

Diez años después de mi primera introducción a Media 100, el software y el hardware se veían un poco diferentes, pero la tecnología subyacente se basaba en los mismos principios. Los editores habían migrado a Final Cut Pro y habían surgido productos como Xserve RAID de Apple para hacer que el almacenamiento de alta velocidad fuera más simple y atractivo.

Los discos duros habían mejorado tanto en precio y rendimiento que la redundancia se convirtió en una opción factible, incluso para los editores. El Apple Xserve RAID contenía un total de 14 discos duros individuales, pero dos de ellos eran redundantes, por lo que incluso si fallaba un disco, los datos no se perdían. Las suites de edición ahora miden el almacenamiento en terabytes, no en gigabytes.

A mediados de la década de 2000, las matrices RAID eran más grandes, más rápidas y más baratas que nunca, todavía estaban, por lo general, conectadas directamente a una sola computadora. Tener varias salas de edición/computadoras compartiendo el mismo RAID requería una configuración significativamente más costosa y compleja. Los primeros RAID compartidos se basaron en tecnología de canal de fibra costosa y ligeramente volátil, y se conocieron como SAN: una red de área de almacenamiento. Pero también surgió un enfoque alternativo para el mismo problema: el NAS o almacenamiento conectado a la red. Un NAS no era tan rápido como un SAN, pero estaba basado en la tecnología Ethernet existente más económica.

Había estado en varios eventos de la industria que promocionaban las primeras SAN de canal de fibra y la abrumadora impresión que tuve fue que eran increíblemente caras y sorprendentemente inestables. Si el vendedor no podía hacer que funcionara correctamente en una exposición pública, ¿qué esperanza tenía un editor habitual? Pero a pesar del dolor que evidentemente acompañó a los primeros usuarios, estaba claro que tener varias computadoras compartiendo el mismo grupo de almacenamiento era más sofisticado y potencialmente MUCHO más productivo.

Si bien la tecnología subyacente detrás de una SAN y una NAS es bastante diferente, para el usuario final la única distinción es que una SAN aparece como una unidad local, mientras que una NAS está, por definición, conectada a través de una red Ethernet normal. Gigabit Ethernet se estableció definitivamente a mediados de la década de 2000 y ofrecía velocidades teóricas de hasta 125 megabytes por segundo, más que suficiente para la edición de video.

Pero a nivel personal, a mediados de la década de 2000 ahora trabajaba como diseñador de movimiento independiente y comenzaba a pensar en guardar copias de los proyectos en los que había trabajado. Anteriormente, como editor, conservar una copia de un proyecto significaba masterizar una copia adicional en cinta, y en algún lugar de mi garaje todavía tengo una caja de cintas Betacam que datan de 1997. Pero trabajar como diseñador de movimiento en After Effects significó que, en lugar de eso, de cintas, ahora quería copias de proyectos de After Effects y archivos de Quicktime.

Los discos duros habían seguido bajando de precio y compañías como LaCie habían lanzado discos duros portátiles que encontraron un mercado inmediato en la industria del cine y la televisión. La primera unidad externa de LaCie se lanzó en 2003, en tamaños de 400 GB y 500 GB. Con el modelo de 400 GB a la venta al por menor por 1.900 dólares australianos y el de 500 GB por 2.255 dólares australianos, resultó ser un poco más de 4 dólares por gigabyte. ¡Esto era enormemente más barato que los $18,000 que nos cotizaron por 18 gigabytes de almacenamiento en 1996! Tener esta capacidad en un factor de forma pequeño y portátil fue innovador.

Durante los años siguientes, los precios continuaron cayendo, las capacidades aumentaron y otros proveedores compraron productos similares en el mercado.

La primera década de la década de 2000 vio el surgimiento de los gráficos en movimiento como una herramienta esencial para la comunicación corporativa, mientras que los efectos visuales digitales estaban cambiando la forma en que Hollywood hacía películas.

La rápida adopción de gráficos en movimiento y animación resultó en la generación de grandes cantidades de datos, con proyectos individuales fácilmente capaces de ocupar cientos de gigabytes, si no terabytes, de almacenamiento.

Para la agencia promedio y los estudios más pequeños, el problema de las copias de seguridad y el archivo a menudo se pasaba por alto o simplemente se ignoraba. Quizás el mayor problema fue que el costo del almacenamiento era más barato que el costo del trabajo humano para revisar los proyectos, clasificarlos y consolidarlos.

Una búsqueda rápida en Google sugiere que comprar un disco duro portátil de 1 TB en este momento cuesta aproximadamente lo mismo que contratar a un artista senior por 1 hora de trabajo. El costo de 1 TB de almacenamiento para un NAS más grande, o incluso un archivo basado en cinta, es aún más bajo. Y una vez que se ha completado y entregado un proyecto, nadie tiene ganas de revisarlo y clasificarlo todo. Es casi una obviedad.

"Archivar" un proyecto simplemente copiándolo todo en un disco duro externo, o incluso en una unidad de cinta, es relativamente económico por gigabyte. Era, y sigue siendo, una práctica común copiar carpetas de proyectos completas, con renderizados de prueba redundantes, vistas previas, WIP, etc., simplemente porque es más fácil que el tedioso, y potencialmente costoso, proceso de hacer que los artistas clasifiquen su propio trabajo manualmente. y decidir lo que debe conservarse.

El problema básico de archivar no ha cambiado y todavía existe hoy. El costo de contratar a alguien por solo 1 día sigue siendo mucho más alto que el costo de almacenamiento. Una vez que se ha completado un proyecto, sigue siendo más barato y rápido simplemente copiar todo en lugar de revisarlo e intentar hacer algún tipo de copia de seguridad significativa.

Trabajando como autónomo, podría contratarme durante unos días, unas semanas o unos meses en un estudio, y luego terminar y empezar a trabajar en otro lugar. Usar un disco duro portátil era la forma más sencilla de guardar copias de mi trabajo mientras me movía entre diferentes empresas.

Pero incluso acercándose a 2010, el costo del hardware y el software de la computadora todavía era lo suficientemente alto como para que trabajar desde casa fuera poco común. Las cámaras de video todavía filmaban en cinta, las caseteras eran un mal necesario que costaba tanto como un apartamento y, en general, las configuraciones requeridas para trabajar con video digital desde casa, mientras se colaboraba con un estudio, eran demasiado costosas para una persona.

El software no era un servicio de suscripción, sino algo por lo que pagabas mucho dinero anualmente. Entonces, mientras trabajaba como autónomo, la carga y la responsabilidad de proporcionar hardware y software capaces recaían firmemente en el lado del estudio. Lo mismo ocurría con las copias de seguridad y el archivo. Los estudios más grandes podían darse el lujo de tener un sistema de copia de seguridad basado en cinta y alguien que los operara, los estudios más pequeños seguían comprando unidades externas y colocándolas en los estantes para acumular polvo.

A medida que continuaba trabajando como diseñador de movimiento independiente, la cantidad de discos duros portátiles que compré para almacenar todo mi trabajo aumentó constantemente. No estaba solo: en todos los lugares en los que trabajé había estantes de discos duros portátiles, algunos etiquetados, otros no, pero todos llenos de proyectos sin clasificar que abarcaban años. Cada vez que un cliente llamaba con la esperanza de revisar un proyecto anterior o reutilizar activos existentes, se producía un pánico silencioso cuando se recogían unidades portátiles de estantes polvorientos y se conectaban una a la vez, en busca del proyecto adecuado.

En 2007 se lanzó un nuevo producto que inmediatamente me llamó la atención. Llamado Drobo, este era un dispositivo de almacenamiento externo que podía contener cuatro discos duros. El Drobo tenía una serie de características que lo hacían único y especialmente atractivo para usuarios domésticos como yo.

En primer lugar, el Drobo ofrecía capacidad de expansión. En lugar de comprar una sola unidad externa y luego llenarla y comprar otra, podría comprar unidades a medida que las necesitara. El Drobo tenía cuatro compartimentos para discos duros, pero no era necesario llenar los cuatro discos para que funcionara. Podría comenzar con una sola unidad, y luego, cuando esté llena, podría agregar otra, y luego otra. Debido a que no estaba pagando por una caja y una fuente de alimentación nuevas cada vez, en general, esto era más económico que comprar cuatro unidades portátiles individuales.

En segundo lugar, el Drobo ofrecía redundancia. El mayor problema de coleccionar estanterías llenas de discos duros portátiles externos era su fragilidad. Si la unidad dejaba de funcionar, lo que era común, perdía todos sus datos. Pero el Drobo usaba varias unidades como RAID, con redundancia, lo que significa que una de las unidades podría fallar y no perdería todo.

Finalmente, Drobo tenía su propia forma patentada de RAID que permitía al usuario mezclar y combinar tamaños de disco duro e incluso reemplazar unidades más pequeñas por otras más grandes. Anteriormente, cualquier persona que configuraba varias unidades como RAID necesitaba usar tamaños de disco duro idénticos, y una vez que se configuraba el RAID, eso era todo: la capacidad del RAID se configuraba y no se podía cambiar. Los RAID tradicionales eran rápidos y ofrecían redundancia, pero no eran flexibles ni ampliables.

Pero el Drobo cambió eso. Puede mezclar discos duros de diferentes tamaños y, si llena todo su almacenamiento, puede sacar uno de los discos más pequeños y reemplazarlo por uno más grande. En ese momento, esta era una solución realmente innovadora que parecía cumplir todos los requisitos. Data Robotics lo llamó "Más allá de RAID".

El primer Drobo se lanzó en 2007 y parecía ser una solución brillante para tantos problemas. En esa época había comprado un iMac y estaba haciendo pequeños proyectos de After Effects desde casa. Estaba considerando seriamente comprar un Drobo, sin embargo, siempre he desconfiado de los productos de primera generación, y como mi iMac tenía un nuevo puerto Firewire 800, hubiera preferido algo con un conector Firewire 800. Aunque trabajaba como diseñador de movimiento, gran parte de mi trabajo todavía involucraba la edición de video, por lo que quería algo lo suficientemente rápido como para manejar la reproducción de video.

A principios de 2008, Drobo anunció su producto de segunda generación, que parecía bastante similar pero incluía un puerto Firewire 800. Pero también tenían otro incentivo. No puedo recordar los detalles exactos, pero si ordenaste el nuevo modelo por adelantado, también obtendrías algo llamado "Drobo Share" gratis. No sabía qué era una acción de Drobo, pero las vendían por separado por unos pocos cientos de dólares. La idea de conseguir uno gratis parecía un buen negocio. Así que me lancé y pedí un Drobo con tres unidades de 1 terabyte.

Estaba bien, supongo.

Para ser justos, el Drobo hizo todo lo que prometió que haría. Ofrecía redundancia, por lo que no tenía que preocuparme tanto por la pérdida de datos. Era ampliable. Empecé con 3 discos y agregué un cuarto cuando lo necesitaba. Y luego, cuando comencé a quedarme sin almacenamiento nuevamente, reemplacé lentamente las unidades originales de 1 TB con unidades de 2 TB. Funcionó.

Pero desafortunadamente, fue lento. Realmente, inesperadamente lento. Todavía tenía mi suposición original de hace 10 años de que RAID = velocidad. Los primeros sistemas no lineales que utilizaba eran todos los arreglos RAID necesarios para poder trabajar. El RAID que vino con nuestro Media 100 fue una solución a la necesidad de altas velocidades de datos. Pero a pesar de que venía con un nuevo puerto Firewire 800, el Drobo simplemente no era lo suficientemente rápido para usarlo con software de edición de video. No era solo la velocidad de transferencia, sino la latencia general. Parecía llevar mucho tiempo hacer cualquier cosa.

Más molesto aún, las unidades del Drobo se apagaban para ahorrar energía si no se usaban durante 15 minutos. Pero siempre les tomaría unos segundos notables volver a girar, lo que harían cada vez que la computadora necesitara acceder a un archivo en cualquier unidad, o incluso abrir un explorador de archivos. Esto fue mucho más irritante de lo que puedo describir con precisión y, lamentablemente, no se pudo desactivar en mi modelo (el siguiente modelo de Drobo le permitía desactivar el ahorro de energía, pero no pude hacerlo).

En cuanto a Drobo Share... Me parece interesante mirar hacia atrás ahora. Nunca lo usé. Realmente nunca entendí lo que era. Es un símbolo de mi ignorancia técnica de esa época. En 2008, simplemente no sabía qué era una unidad de red, un NAS.

Si tiene curiosidad, Drobo Share era un pequeño dispositivo que convertía su Drobo en un NAS. En lugar de conectar su computadora directamente al Drobo mediante un cable Firewire o USB, puede conectar el recurso compartido Drobo y conectarse a través de Ethernet. Drobo Share contenía un pequeño servidor basado en ARM y era capaz de ejecutar aplicaciones básicas, al igual que los dispositivos NAS modernos en la actualidad. Permitió que varias computadoras, Mac y PC, accedieran al Drobo simultáneamente.

Para mí, realmente no lo entendí, porque en 2008 nunca antes había trabajado en ningún lugar con un NAS. Gracias al marketing de Apple, asumí que Firewire 800 era súper rápido y nunca se me ocurrió que podría ser más lento que Gigabit Ethernet (800 es menos que 1000, ¡Gigabit Ethernet es más rápido!). Debido a que solo tenía una computadora, mi iMac, no tenía necesidad de conectar otra computadora a ella. Así que simplemente se sentó en un cajón en alguna parte.

Si hubiera entendido lo que era, entonces tal vez lo habría usado. Pero recuerdo haber pensado: ¿por qué querría usar una caja separada para conectar un disco duro con un cable de red, cuando puedo conectarlo directamente usando Firewire 800? Parecía un problema.

Tenía la intención de venderlo, pero nunca superé la sensación de que podría ser útil algún día (no lo fue).

Unos años más tarde, mi iMac comenzó a sentirse un poco viejo y lento, y estaba buscando formas de hacerlo más rápido sin simplemente comprar uno nuevo. Los SSD habían existido durante algunos años, pero eran muy caros. Pero si había que creer en los informes, entonces el alto precio valió la pena. Cuestan mucho, pero un SSD seguía siendo más barato que un iMac nuevo. Decidí probar uno por mí mismo.

En lugar de comprar un iMac completamente nuevo, reemplacé el disco duro giratorio original con un nuevo SSD. Esto fue alrededor de 2012 y era bastante radical en ese momento: tuve que comprar algunas herramientas personalizadas, un soporte personalizado para que el SSD encajara en la ranura del disco duro del iMac y seguir cuidadosamente un conjunto de instrucciones que encontré en Internet. Desmontar un iMac no es para los no iniciados.

Pero funcionó, y el resultado fue revolucionario. Mi iMac no solo se sentía más rápido, se sentía sobrealimentado. Era más rápido que los iMacs más nuevos. Me convertí en un evangelista SSD instantáneo. No podía creer lo mucho que el disco duro mecánico giratorio había estado frenando el resto de mi computadora. Había visto el futuro y el futuro eran los SSD. Y no solo eran mucho más rápidos que un disco duro tradicional, sino que parecían mucho más robustos y confiables. Si un SSD no tiene partes móviles, entonces debe ser mucho menos probable que falle, ¡verdad!

A pesar de mi decepción con la velocidad del Drobo y su irritante capacidad de detener toda mi computadora cada 15 minutos, cumplió su propósito durante muchos años. Pero llegué al punto en que llené las cuatro bahías con discos duros de 2 TB y, sin embargo, una vez más me seguía quedando sin espacio. Sentía que cada proyecto en el que trabajaba consumía más y más espacio de almacenamiento.

En algún momento alrededor de 2015, estaba en la tienda local de suministros de oficina y vi que los discos duros portátiles ahora estaban disponibles en tamaños de 8 GB. Una sola unidad, que cuesta aproximadamente $ 400, ahora podría almacenar más que mi Drobo completo con su RAID de 4 unidades, ¡y probablemente también sería mucho más rápido! Compré uno, desenchufaron el Drobo y lo trasladaron al garaje, junto a mi caja de cintas Betacam SP.

Era muy consciente de que mi nuevo disco no ofrecía redundancia, pero me reconcilié con la idea de que si fallaba, todavía tendría la mayoría de mis archivos en el Drobo. Solo serían proyectos más nuevos los que perdería. Pero sabía que era hora de buscar otra cosa.

Si bien compré un Drobo porque sus características únicas me atraían, Drobo definitivamente no era el único fabricante que vendía productos de almacenamiento a los consumidores. Otras marcas conocidas incluyen LaCie, Western Digital, Qnap y Synology.

Tal vez porque era ruidoso, y cuando las unidades se apagaban y luego volvían a girar producían todo tipo de clics y golpes, el Drobo era un recordatorio constante de que las unidades de disco duro eran un dispositivo mecánico. Mi experiencia con el SSD en mi iMac me convenció de que los SSD eran el futuro. Las unidades giratorias parecían... pasadas de moda.

Todavía había una brecha notable entre los tipos de almacenamiento que usaban las personas y los productos empresariales más grandes que se usaban en los estudios y las instalaciones de producción. En 2017, podría ir a una tienda de suministros de oficina y comprar un disco duro portátil de 1 TB por aproximadamente $ 100. Pero 1 TB de almacenamiento para una SAN empresarial de alta velocidad aún podría costar más de $ 1,000. Los tipos de servidores, conmutadores, discos duros e infraestructura general de red/almacenamiento utilizados por una sala llena de diseñadores de movimiento y artistas de efectos visuales aún estaban a un mundo de distancia de cualquier cosa que compraría en el centro comercial local.

Habiendo trabajado en muchos estudios diferentes, me di cuenta de lo importante que es el ancho de banda y la velocidad de la red para After Effects. Todos los estudios en los que trabajé ahora tenían algún tipo de almacenamiento en red compartido, y varios de ellos tenían granjas de renderizado (lo que consideraba un gran lujo). Pero todos los estudios en los que trabajé usaban Gigabit Ethernet, que tenía una tasa de datos máxima teórica de 125 megabytes por segundo. After Effects y el software de edición no lineal podrían procesar datos fácilmente a un ritmo más rápido que eso. Fue sencillo medir la diferencia en los tiempos de procesamiento entre el procesamiento local y el procesamiento en red, lo que demuestra que la lentitud se debe a las velocidades de transferencia de datos, no a After Effects.

Comencé a planificar mi serie sobre "After Effects y rendimiento", y un aspecto significativo de la serie fue el enfoque en el ancho de banda y apreciar la cantidad de datos que After Effects podía procesar. Fue un poco molesto escuchar el mantra recurrente "After Effects es lento... After Effects es lento..." cuando en realidad era la red gigabit del estudio la que estaba frenando todo.

Si bien muchos artistas estaban felices de gastar mucho dinero en GPU costosas para ayudar a acelerar sus renderizados 3D, no mucha gente se detuvo a pensar en cómo un almacenamiento más rápido podría ayudar a mejorar sus renderizados 2D. El costo de una SSD era más bajo que el costo de una GPU de gama alta, y para cualquiera que realice principalmente trabajo en 2D, comprar una SSD en su lugar podría tener un mayor impacto en la velocidad de renderizado y el rendimiento.

Pero los SSD tenían sus propios problemas, sobre todo el precio y la capacidad. En comparación con un disco duro giratorio normal, cuestan mucho más y almacenan mucho menos.

Aunque mi Drobo se había mudado al garaje, no estaba muy motivado para reemplazarlo. Si bien prolongé la vida útil de mi iMac al instalar el SSD, unos años más tarde hice la transición a una nueva caja de Windows. Tenía un SSD NVMe interno de alta velocidad, que era el disco principal desde el que trabajaba. Las unidades NVMe son incluso más rápidas que la unidad SATA que usé en mi iMac, y podría transferir datos a unos 1500 megabytes por segundo. En el momento en que lo compré, esto era casi tan rápido como los SSD normales.

A modo de comparación, la Ethernet gigabit normal superó los 125 megabytes por segundo, más de diez veces más lenta. Incluso el estándar USB-3 tenía una velocidad teórica máxima de 625 megabytes por segundo, y las velocidades del mundo real serían más lentas.

Entonces, cualquier tipo de unidad externa que compré sería más lenta, mucho más lenta, que la SSD interna a la que estaba acostumbrado. Además, como no hacía mucho trabajo desde casa, no me estaba quedando sin espacio exactamente. Simplemente trabajé con mi SSD interno y luego, cuando terminaron los proyectos, los copié en mi disco externo.

No tenía ningún incentivo para buscar un reemplazo para mi Drobo cuando cualquier cosa que comprara sería más lenta que el sistema que estaba usando actualmente.

Aunque había sido uno de los primeros en adoptar el Drobo, nunca presté atención a las alternativas. Casi sabía que eventualmente necesitaría algo similar, pero todavía me sentía un poco quemado por el bajo rendimiento de mi Drobo.

Siempre me he llevado bien con el personal de soporte de TI y otras personas con tecnología en general, y un día cuando estaba trabajando en un estudio, su jefe de TI me preguntó si quería ver "un nuevo juguete" que acababa de llegar. Me mostró una bonita caja negra que no era lo suficientemente grande para ser una computadora.

Lo que estaba viendo era un nuevo Synology NAS, simplemente llamado FS1018. Synology ha estado produciendo dispositivos NAS para consumidores durante muchos años, compitiendo directamente contra Drobo con productos posiblemente más potentes. Sabía vagamente que existían empresas como Synology y QNap, pero como ya tenía un Drobo, nunca le presté mucha atención.

Pero el FS1018 fue un nuevo desarrollo interesante. El FS significaba almacenamiento flash. Este fue un NAS que fue diseñado específicamente para SSD. Aquí había un RAID de escritorio relativamente pequeño con un precio de consumidor (ish), capaz de contener doce SSD sin un solo disco duro giratorio a la vista. Los SSD ya eran increíblemente rápidos, pero ¿12 de ellos juntos en un RAID? ¡Seguramente esa cosa debe ser RÁPIDA!

Obviamente, el jefe de TI del estudio también pensaba lo mismo, y estaba en la lujosa posición de poder comprar uno simplemente para averiguarlo. El estudio se especializaba en eventos en vivo y los artistas se enviaban rutinariamente a varios países del mundo para trabajar en el lugar. El FS1018 parecía la solución portátil perfecta para un pequeño número de artistas que trabajaban juntos en una ubicación remota.

Inmediatamente sentí que este era el producto que había estado buscando. No más problemas con la velocidad, no más problemas con los discos giratorios torpes que se apagan y vuelven a encender. Me preocupaba que un disco externo fuera más lento que el SSD interno que usaba actualmente, ¡pero seguramente esto sería una coincidencia!

Mi experiencia al actualizar mi iMac había sido tal revelación que nunca pensé que volvería a comprar otro disco duro giratorio. Me encantaban los SSD, y finalmente aquí había un RAID de escritorio diseñado alrededor de SSD en una caja de aspecto atractivo.

Pero el mayor problema era el precio. La unidad base FS1018 tenía un precio razonable y no más cara que un NAS de escritorio comparable que usaba unidades giratorias. Sin embargo, los SSD que necesitabas para instalarlo seguían siendo terriblemente caros. En ese momento, los SSD más grandes (convencionales) tenían un tamaño de 2 TB, mucho menos que los discos giratorios más grandes. Pero el FS1018 podría contener 12 unidades, por lo que llenarlo con unidades de 2 TB daría como resultado poco menos de 20 TB de espacio utilizable, una vez que tenga en cuenta el formateo y la redundancia. 20 TB me parecieron mucho.

Rápidamente calculé que comprar uno y llenarlo con unidades de 2TB costaría más de $12,000. No tenía $ 12,000 de sobra, e incluso si los tuviera, parecía mucho para gastar en un disco duro elegante. Pero los SSD estaban bajando de precio y seguí la misma lógica que tenía cuando compré mi primer Drobo: no necesitaba llenarlo el día 1. Podía comenzar con tres unidades y agregar más cuando fuera necesario.

El Synology FS1018 era, en un sentido relativo, un dispositivo de nivel de consumidor. Era mucho más económico que un SAN industrial/NAS de nivel empresarial, pero con un nivel de rendimiento que debería soportar fácilmente a varios usuarios. Entendí por qué nuestro jefe de TI estaba intrigado por eso. Gracias a la velocidad de los SSD, especialmente configurados en un RAID, el rendimiento fue increíblemente atractivo por el precio. Y era razonablemente portátil. Sin duda, era una opción interesante para cualquiera que hubiera estado considerando soluciones más complejas de nivel empresarial para un estudio pequeño. $ 12,000 es mucho dinero para que una persona gaste en 20 TB de almacenamiento, pero si está ejecutando un estudio que gastó más de diez veces esa cantidad en una SAN empresarial, entonces no parece mucho.

Cuando Synology lanzó el FS1018, no había buscado otras opciones. Ni siquiera sabía por dónde empezar. Pero algunas búsquedas básicas en Google confirmaron que Synology FS1018, en ese momento, no tenía competencia directa. Todos los demás dispositivos NAS del mercado utilizaban unidades giratorias, incluso si algunos de ellos podían utilizar uno o dos SSD para el almacenamiento en caché. Estaba tan convencido de que los SSD eran el futuro que simplemente no estaba interesado en nada que usara unidades giratorias. En 2018, Synology era la única empresa que ofrecía un NAS construido únicamente con SSD. Parecía ser lo que estaba buscando. Decidí que quería uno. Sólo tenía que averiguar cómo pagarlo.

Pensé en esto e ideé un plan astuto. Me gustaría llegar a un presupuesto y planificar el futuro. No estaba acostumbrado a ser tan maduro, pero valía la pena intentarlo. Es rápido y fácil configurar una cuenta bancaria en línea y hacer una transferencia automática cada mes.

Unos diez años antes, me resistía a comprar un Drobo de primera generación y ahora me resistía a comprar un modelo FS de primera generación de Synology. Pensé que para cuando Synology lanzara un modelo actualizado, estaría listo para comprarlo. Por el momento, podría sobrevivir con mi disco externo de 8 TB y rezar para que no muriera.

Cuando Covid se extendió por todo el mundo, cambió todo para todos. Entre otras cosas, me impidió cometer un error costoso. No compré el Synology FS1018.

Como muchas otras personas, el impacto más inmediato de Covid fue que comencé a trabajar regularmente desde casa. Trabajar desde casa cambió varias de mis prioridades. En primer lugar, noté que estaba usando mucho más espacio de almacenamiento del que estaba acostumbrado. Antes de Covid, trabajar como autónomo significaba viajar a diferentes estudios y usar su equipo y su almacenamiento. Todos los archivos o copias de seguridad que guardaba solían ser archivos de proyecto (bastante pequeños) o una selección de QuickTimes "finales". Tenía archivos de unos 20 años de trabajo que encajaban perfectamente en un disco duro de 8 TB.

Pero ahora, trabajando desde casa, descubrí que los proyectos individuales podían ocupar desde 100 gigas hasta 1 TB. Me estaba quedando sin espacio, y rápido. Me sentí como si hubiera retrocedido en el tiempo durante más de 10 años, con un escritorio lleno de discos duros portátiles que conectaría o desconectaría según los necesitara. En algunos casos, los estudios me enviaron discos duros portátiles con material de archivo, y terminé usando los mismos discos para trabajar, porque no tenía el espacio interno para copiar todo.

Trabajar desde casa también me hizo responsable de los datos que producía. Me preocupé por perder proyectos debido a una falla en el disco duro. Tuve visiones de una tormenta que causaba un apagón, y no solo perdía tiempo trabajando, sino que luego descubría que mis unidades se habían corrompido por la falla de energía. Utilicé parte de mi presupuesto existente para comprar un UPS, por lo que si alguna vez se cortaba la energía, podría guardar todo primero y apagar mi sistema correctamente.

A medida que la industria se tambaleaba por los efectos de la pandemia de Covid, los proyectos se ralentizaron y también los ingresos. Al igual que todos los demás, no tenía forma de predecir el impacto económico a largo plazo que tendría Covid en nuestra industria.

No parecía una buena idea gastar miles de dólares en nuevo hardware.

Me encontré en una situación frustrante. Estaba en una posición en la que simplemente no tenía suficiente espacio en el disco duro para poder hacer mi trabajo, pero no sentía que estuviera listo para gastar miles de dólares en una solución a largo plazo. Pero simplemente ir al centro comercial y comprar otro disco duro portátil para trabajar parecía un movimiento equivocado.

Con un golpe de buena suerte, me topé con una agencia que estaba cerrando y vendiendo de todo, incluidas sillas, mesas, muchos iPads y algunos discos duros. Tenían un NAS Western Digital de 2 bahías que apenas se había usado y lo vendían a precio de ganga. Tenía 2 unidades de 6 TB para un almacenamiento total de 12 TB, pero las unidades se podían configurar como RAID 1 para ofrecer redundancia. Era una oportunidad para comprar un NAS de nivel de entrada por menos del costo de un nuevo disco duro portátil. Parecía una buena solución a corto plazo.

Aunque era un dispositivo bastante simple, el NAS de Western Digital se adaptaba perfectamente a mí. Me sentí aliviado de tener cierto nivel de redundancia para no perderlo todo si fallaba una unidad. Fue una buena introducción a lo que es un NAS y cómo funcionan a través de interfaces basadas en web. Compré un interruptor de red de $ 50 y pude hacer que mis máquinas Mac y Windows se conectaran simultáneamente, algo que fue tan fluido y productivo que me hizo preguntarme si debería haber perseverado con Drobo Share hace tantos años.

Regularmente tengo renderizados de proyectos de After Effects en mi máquina con Windows mientras realizo el seguimiento de Syntheyes en mi Mac. Ambas máquinas están leyendo los mismos archivos en la misma carpeta. Funciona tan bien y tan perfectamente que no puedo creer que pasé años copiando varios archivos en memorias USB para moverlos. La configuración de mi hogar ahora tenía el mismo nivel de funcionalidad que esperaba de todos los estudios para los que había trabajado. Se sintió bien.

Y por último, una cosa más que cambió el Covid fue el tiempo libre. A medida que los proyectos y el trabajo en general se agotaron, me tomé el tiempo para revisar todos mis discos antiguos y arreglarlo todo. Sabía que el NAS de Western Digital era solo una solución a corto plazo, pero pensé que si comenzaba a organizarme, cuando comprara algo más permanente, podría simplemente copiar todo.

Nunca había prestado mucha atención al mercado de NAS y, hasta que vi el FS1018, no sabía mucho sobre Synology. Mi suposición era que actualizarían sus productos regularmente, al igual que otras compañías tecnológicas. Sentí que la mayor deficiencia del FS1018 era la falta de Ethernet de 10 gigas: ¿cómo podría un dispositivo de red que era tan rápido no tener Ethernet de 10 gigas incorporada? Siempre existía la posibilidad de que un modelo actualizado saliera con más RAM, una CPU más rápida y Ethernet de 10 gigas como estándar. Ese modelo de segunda generación sería el indicado para mí.

De vez en cuando, revisaba el sitio web de Synology para ver si había alguna noticia sobre actualizaciones. Con el tiempo me olvidé. Synology no parecía actualizar sus productos con mucha frecuencia y, como no era una prioridad mía, me olvidaba de ello durante meses. No estaba exactamente desesperado por gastar mucho dinero. Eventualmente, después de varios años, finalmente vi el comunicado de prensa que había estado esperando. Synology había lanzado una nueva unidad FS.

Pero la actualización, si se puede llamar así, no fue lo que esperaba.

A principios de 2022, Synology lanzó un nuevo modelo básico en su gama FS, el FS2500. Pero esta no era una versión mejorada del FS1018, era un reemplazo de mayor especificación. El FS1018 fue descontinuado.

El nuevo FS2500 es un dispositivo de montaje en rack, no una caja de escritorio. Es más potente que el FS1018 en todos los sentidos: CPU más rápida, más RAM, Ethernet de 10 gigas integrada. Incluso tiene fuentes de alimentación redundantes.

Pero el precio refleja esto: la unidad base cuesta más del doble del precio del FS1018 anterior. El FS2500 no es un dispositivo para un solo usuario que trabaja en casa. Sigo pensando que es una opción interesante para estudios pequeños, y sigue siendo una alternativa económica a los sistemas NAS y SAN de nivel empresarial. Pero no es un dispositivo de nivel de consumidor.

Durante los últimos años, mi banco había ahorrado dinero automáticamente cada mes para hardware nuevo. Pero ahora el hardware para el que había estado ahorrando acababa de ser descontinuado sin reemplazo inmediato. Era hora de buscar una solución diferente.

Originalmente quería un FS1018 por una suposición. Simplemente supuse que los SSD eran el futuro y que los discos giratorios estaban pasados ​​de moda. Y además de mirar a mi alrededor para ver si otros fabricantes tenían productos solo para SSD, nunca había hecho ninguna investigación real.

Mi otra suposición era que cualquier dispositivo externo sería más lento que el SSD interno con el que trabajaba; por eso también era reacio a comprar algo.

Pero como el FS1018 había sido descontinuado, necesitaba un nuevo plan y por primera vez busqué consejo. Pregunté a amigos, compañeros de trabajo, revisé reseñas en línea y comencé a ver muchos videos de YouTube publicados por NASCompares, un recurso invaluable.

Muy rápidamente me di cuenta de que algunas de mis suposiciones básicas estaban simplemente equivocadas. En primer lugar, estaba claro que los discos giratorios tenían un largo futuro por delante, especialmente en términos de costo por gigabyte. Pero, lo que me sorprende más, es posible que la diferencia de velocidad entre un NAS externo y mi SSD interno no sea tan grande como esperaba.

En el uso regular y diario, mi SSD NVMe interno se compara en aproximadamente 1500 megabytes por segundo. Pero Ethernet de 10 gigabits tiene un máximo teórico de 1.250 megabytes por segundo. La diferencia no es tan grande. Y aunque me preocupaba que los discos giratorios fueran mucho más lentos que un SSD, la mayoría de las cajas NAS podrían usar SSD como caché para aumentar la velocidad. Y cuantas más unidades se utilicen en el NAS, más rápidas serán las velocidades de transferencia.

Por lo tanto, incluir Ethernet de 10 gigas en la ecuación, pasar de un NVMe interno a un NAS externo no debería ser tan doloroso como pensé al principio.

Pero fue la diferencia de capacidades lo que finalmente me convenció. Los SSD se han vuelto más grandes y más baratos, pero también lo han hecho las unidades giratorias. Cuando miré por primera vez el FS1018, los SSD normales más grandes eran de 2 TB. Ahora, los SSD de 4 TB son comunes. Pero los discos duros giratorios también se estaban volviendo más grandes y más baratos. Por el mismo precio que una SSD de 4 TB, puede comprar una unidad giratoria de 14 TB.

Ahora que estaba trabajando desde casa, necesitaba mucho más espacio de almacenamiento que antes. Hace cuatro años pensé que 20 TB de almacenamiento me durarían en el futuro previsible. Ahora, probablemente tenía tanto en mi escritorio en varias unidades portátiles.

Comprar un NAS que solo usaba SSD ya no era realista.

Muchas reseñas de NAS que revisé me preguntaron si el modelo X era adecuado para la edición 4K. Parece que muchos editores de video están interesados ​​en las revisiones de NAS y puedo entender por qué. Siempre presté atención a estos porque sentí que las personas que trabajan con video 4K tenían requisitos similares a los míos, pero con una excepción.

Aunque el NAS de escritorio promedio usa unidades giratorias, muchos de ellos también tienen la opción de usar un SSD como caché, lo que obviamente puede transferir datos mucho más rápido. Debido a que After Effects ha tenido un caché de disco durante tanto tiempo, estaba familiarizado con el concepto y supuse que un caché SSD funcionaría de la misma manera. Los archivos de uso común se almacenarían en caché en el SSD y se podría acceder a ellos y transferirlos mucho más rápido que desde las unidades giratorias. Esto mejoraría la latencia, así como las tasas de datos sin procesar.

Pero cuando se trata de la edición de video, especialmente las personas que trabajan con archivos de video más grandes, varios revisores sugirieron que un caché SSD hace poca o ninguna diferencia. El problema con la edición de video es que los archivos de metraje pueden ser tan grandes que solo unos pocos clips pueden llenar rápidamente el caché, anulando su utilidad.

Podría entender esto, ya que he trabajado en proyectos en los que las tomas individuales de la cámara de alta resolución han oscilado entre 20 y más de 100 conciertos cada una. Cuando su caché SSD tiene solo unos pocos cientos de gigas de tamaño, pero está tratando con archivos individuales que promedian alrededor de 50 gigabytes, entonces es fácil que el sistema de caché se vea abrumado.

Pero en mi caso, la mayoría de los activos con los que trabajo son secuencias EXR. Si bien recibo con regularidad secuencias de cámara sin procesar que pueden ser ENORMES, lo primero que hago es convertir los clips seleccionados en secuencias EXR recortadas. Tratar con muchos archivos pequeños en lugar de un archivo gigante es exactamente para lo que sirven los cachés. Si bien noté las advertencias en línea de que los cachés SSD no son buenos para todos los editores de video, decidí que un caché SSD sería muy útil para cualquiera que trabaje con 3D y gráficos en movimiento.

Durante varios años había estado esperando para comprar un NAS solo SSD actualizado, pero ahora que no era una opción, necesitaba un nuevo plan. Y necesitaba actuar con rapidez, porque incluso mi nueva unidad Western Digital estaba casi llena. Solo pasarían unos meses hasta que volviera a la situación de no tener suficiente espacio en el disco para trabajar. Durante los últimos años había estado esperando a Synology, pero ahora que ese plan estaba descartado, no había razón para esperar más.

Al tratar de decidir qué comprar, me di cuenta de que tenía 3 decisiones básicas: qué tipo de NAS, qué tipo de unidades y qué tipo de conmutador de red de 10 gigas.

De alguna manera, el NAS fue la decisión más fácil. Estaba en el mercado de un NAS de escritorio normal con unidades giratorias, y hay mucha información y reseñas que cubren el mercado de NAS de escritorio. A la gente parece gustarle las reseñas e Internet se complace en proporcionarlas.

La velocidad general seguía siendo mi principal prioridad, ya que temía dar un paso atrás desde mi unidad NVMe interna. Así que comencé buscando unidades NAS de escritorio que tuvieran Ethernet de 10 gigabits. En términos de redundancia y capacidad, calculé que necesitaría al menos 6 unidades. Siempre planeé configurar el NAS con 2 unidades redundantes, por lo que un NAS de 4 bahías habría sido demasiado pequeño.

La búsqueda de un NAS de 6 bahías con Ethernet de 10 gigas reveló rápidamente el Synology 1621xs+, y parece un dispositivo bastante bueno. Hay un montón de críticas positivas y obtuvo el visto bueno del canal de YouTube NAS Compares. Pero al hacer una investigación básica, descubrí que esta era una versión premium del 1621+ más básico (el que no tiene xs). El Synology 1621+ no venía con tanta RAM o Ethernet de 10 gigas, pero podía actualizarlo para que así fuera. Una vez que lo reforzó un poco para que coincidiera con las especificaciones del 1621xs+, el costo fue casi el mismo. Esto fue un poco frustrante, porque esperaba que Synology hiciera que la versión xs+ fuera un poco más atractiva. Si la diferencia de precio entre el 1621xs+ y el 1621+ con todos los extras añadidos fuera más significativa (es decir, si el xs+ fuera más barato), entonces lo habría comprado.

Todavía estaba paranoico acerca de las velocidades de transferencia generales, y cuando estaba conversando sobre esto con uno de mis amigos, me sugirió que investigara la agregación de enlaces. La agregación de enlaces es donde los dispositivos usan múltiples puertos de red para aumentar sus velocidades de transferencia. Es un poco como RAID pero para redes. Los datos de la red se distribuyen en múltiples puertos y se envían a través de múltiples cables, lo que aumenta las tasas de transferencia generales. Usar 2 puertos puede duplicar las velocidades, 4 puertos puede cuadriplicarlas y así sucesivamente. Si bien Ethernet de 10 gigabits tiene una velocidad máxima teórica de aproximadamente 1250 megabytes por segundo, mediante el uso de agregación de enlaces y 2 puertos de red, esto se puede duplicar. 2500 megabytes por segundo está a la par con las unidades NVMe de alto rendimiento y, en comparación con mi SSD anterior, es incluso más rápido.

Para mí, esta fue una gran noticia. El miedo de actualizar mi sistema pero que todo fuera más lento estaba empezando a desvanecerse. La agregación de enlaces pareció resolver mis oraciones, pero había un problema. La agregación de enlaces solo se admite en conmutadores de gama alta. Necesitaría un conmutador administrado, no solo un modelo genérico básico. Ya sabía que si compraba un dispositivo Ethernet de 10 gigas, tendría que actualizar mi conmutador de red doméstico a un modelo Ethernet de 10 gigas, pero no iba a ser tan barato ni tan fácil como esperaba.

Aunque el Synology 1621xs+ venía con un puerto Ethernet de 10 gigabits como estándar, solo tenía un puerto. Esto descartó la agregación de enlaces. Alternativamente, si compro el modelo 1621+ más económico, podría instalar una tarjeta de red de 10 gigabits de doble puerto. Esto me daría la opción de agregar enlaces, mientras que en general sería más barato. Parecía la mejor opción.

Y luego, gracias a las reseñas de Internet, me di cuenta de que Synology también fabricaba un NAS de 8 bahías llamado 1821+. Era esencialmente lo mismo que el 1621+, pero tenía 2 bahías de unidades adicionales. La diferencia de costo fue bastante pequeña. Cuando sumé todos los extras, incluida la tarjeta Ethernet de 10 gigas, más RAM y caché SSD, el costo total del 1821+ mejorado era casi el mismo que el 1621xs+, pero tenía 2 bahías de disco adicionales.

Le pregunté a uno de mis amigos de confianza: ¿Hay alguna razón para no obtener una de 8 bahías en lugar de una de 6 bahías? Y su respuesta fue: siempre busca la mayor cantidad de bahías. Tiene sentido. Estaba comprando este dispositivo para el futuro. Espero que me dure más de 7 años. Tener 8 bahías no solo permite una mayor capacidad, sino también velocidades más altas. Tener 8 unidades haciendo el trabajo es más rápido que 6.

Entonces, siguiendo esa cadena de pensamiento, había decidido qué NAS comprar: el Synology 1821+, que actualizaría con Ethernet dual de 10 gigas.

Agregaré que revisé otras marcas y productos comparables, y observé especialmente de cerca la gama Qnap. Pero finalmente, me decidí por Synology.

No sabía que había tantas opciones con discos duros hasta que fui a comprarlos. Además de las diversas marcas, incluidas Seagate y Western Digital, había varias gamas. Western Digital tiene 6 gamas diferentes de discos duros, con nombres de colores. Seagate también tiene varias opciones, incluida su gama "Ironwolf". Pero algunas unidades se designaron como "Pro", otras como "Enterprise" y otras simplemente como "NAS". ¿Cuál era la diferencia entre un disco duro "NAS" y un disco duro "empresarial"? No tenía ni idea.

Lo que era más confuso era el precio. Parecía que cada vez que revisaba el precio, era diferente. Los precios de los discos duros parecían fluctuar más que el mercado de valores. Y a menudo no tenía sentido. A mí me parecía que un disco duro "empresarial" debería ser más caro que un disco duro "Pro" más básico, pero a menudo no lo era.

no lo entendí

Durante meses encontré esto intensamente confuso. Leí artículos y vi videos de YouTube, y encontré algo de consuelo en que muchos otros estaban tan confundidos como yo. Aparentemente, debido a que los centros de datos compran grandes cantidades de discos duros de nivel "empresarial", a menudo terminan siendo más baratos que los discos duros destinados a los consumidores. Las fluctuaciones de precios representan la oferta y demanda actual del mercado. Por contradictorio que parezca, los discos duros más baratos pueden ser mejores opciones que los más caros.

En algún momento, comencé a inclinarme por las unidades "Gold" de Western Digital. Fueron clasificados como "Enterprise", con un gran MTBF, o tiempo medio entre fallas. Esto significaba que eran confiables. Eran, en el momento en que los compré de todos modos, más baratos que las unidades orientadas al consumidor del mismo tamaño.

Eventualmente, me di cuenta de que podría pasar meses sopesando los pros y los contras de cada tipo y, en última instancia, probablemente no importaría. Una vez que mi nuevo NAS estuviera en funcionamiento, no volvería a pensar en ello. No quería obsesionarme con eso, así que decidí ir con las unidades Western Digital Gold y no preocuparme por eso.

Ahora que había elegido un NAS y las unidades, todo lo que necesitaba para completar el paquete era un conmutador Ethernet de 10 gigas. Pero aquí es donde lo encontré realmente difícil. De hecho, esta es la parte que me hizo más lento. Pasé meses buscando conmutadores Ethernet de 10 gigas.

Me gustó la idea de la agregación de enlaces, especialmente con la vista puesta en el futuro. ¿Quién puede decir lo que sucederá en los próximos 7 años? Tal vez llegue un momento en el que tenga varias computadoras y una minigranja de procesamiento. No quería hacer una compra miope.

Por otro lado, los conmutadores administrados que admitían la agregación de enlaces eran realmente costosos; en algunos casos, pasaba por un buscador de productos de un sitio web y terminaba recomendándome algo que costaba decenas de miles de dólares. A pesar de que Ethernet de 10 gigas existe desde hace mucho tiempo, parece que aún no ha ingresado al mercado de consumo.

Había una serie de conmutadores de 10 gigas básicos y no administrados disponibles, pero no ofrecían ningún tipo de control. Tampoco eran súper baratos. Cuando compré mi conmutador Gigabit Ethernet, mi confiable caja Netgear costaba menos de $50. Pero ahora, incluso un simple conmutador de 10 gigas no administrado era de unos pocos cientos. Si quisiera la agregación de enlaces, tendría que volver a pagar aún más. ¿Pero cuánto valía?

De todo el proceso, encontré que esta es la decisión más difícil. Cambiaba de opinión cada dos días. ¿Debería comprar un conmutador básico y barato por ahora y, si necesito algo más rápido, actualizarlo en el futuro? ¿O debería pagar más ahora y tener todo preparado para el futuro?

Había estado buscando ociosamente productos potenciales durante meses y tenía una página llena de notas garabateadas. Eventualmente, solo pude encontrar 3 conmutadores Ethernet administrados de 10 gigabits en el mercado que cuestan menos de $ 1,000. Uno de ellos no estaba disponible en Australia, lo que lo redujo a dos. De alguna manera, solo tener dos opciones lo hace más fácil.

Tenía la esperanza de gastar menos de $ 500 en un conmutador de 10 gigas. Parecía un número bonito y redondo. Pasé meses revisando opciones de segunda mano, pero no apareció nada adecuado. Finalmente, decidí dejar de preocuparme y simplemente hacer una compra. Ya habían pasado más de 4 años desde que vi por primera vez el FS1018 y necesitaba más espacio de almacenamiento, y pronto.

Elegí un conmutador administrado Qnap de nivel de entrada, porque pensé que Qnap también fabrica dispositivos NAS, entonces sus conmutadores probablemente se ajusten bien a mi configuración. El Qnap M408-4C tuvo buenas críticas, combinó puertos de 10 gigas con Gigabit Ethernet existentes y, sobre todo, admitió la agregación de enlaces. Costó más de lo que esperaba, pero al mismo tiempo estaba feliz de comprar algo en lo que no tendría que volver a pensar durante muchos años.

Hay muchos agujeros de conejo en los que puede caer en Internet, y cuando se trata de Ethernet de 10 gigas, uno de ellos tiene que ver con los tipos de conectores y cables. A diferencia de Ethernet normal, que utiliza cables y conectores rj-45, existen varias opciones diferentes para Ethernet de 10 gigabits. Empecé a investigarlo, pero finalmente me di por vencido. Tengo mejores cosas que hacer que pensar en cables y conectores.

El interruptor Qnap que elegí en realidad es compatible con ambos tipos, por lo que no tuve que preocuparme por ese problema en particular.

Una vez que me decidí por mi lista de compras, fue bastante estresante presionar el botón y comprar todo. Tenía todo en mi carrito de compras, pero no me atrevía a hacerlo. Cuando respiré hondo y finalmente hice clic para pagar, había pasado tanto tiempo que mi carrito se había vaciado automáticamente y tuve que agregar todo nuevamente.

Habían pasado casi exactamente 4 años desde que vi el FS1018 y decidí presupuestar un NAS adecuado. Ahora me había decidido por un sistema completamente diferente, después de pasar meses y meses leyendo reseñas, artículos y viendo videos de YouTube.

Hubo algunas demoras en reunir todas las piezas, principalmente porque había pedido 8 unidades y mi proveedor solo tenía 2 en stock. Pero después de unas semanas, llegó todo y el piso de mi oficina estaba cubierto de cajas.

Estaba en medio de un proyecto y sabía que no debía intentar actualizar todo antes de la fecha límite de entrega. Había esperado cuatro años, unos pocos días más no harían la diferencia.

Configurar todo fue sorprendentemente, casi decepcionante, fácil. Pensé que configurarlo e intercambiar todo podría llevar un día. Al final tardó menos de una hora. Me sorprendió que ni siquiera necesitaba un destornillador para instalar las unidades en el NAS: todo encajaba en su lugar. Las actualizaciones de RAM, la memoria caché SSD y las tarjetas Ethernet de 10 gigas se instalaron en solo unos minutos. Fue muy fácil.

Del mismo modo, desenchufar mi viejo conmutador Netgear y cambiarlo por el nuevo Qnap también fue completamente sencillo. Tener un conmutador híbrido que aceptaba gigabit Ethernet estándar y 10 gigabits funcionó bien para mí, pude simplemente enchufar mis cables existentes sin ningún problema y conectar los cables de 10 gigabits al nuevo NAS.

Todo funcionó exactamente como se esperaba una vez que lo encendí y, después de configurar el software, gracias a algunos tutoriales de YouTube, estaba listo para comenzar a copiar archivos. Empecé con mi NAS de 6 TB y una vez más me sorprendió la rapidez con la que todo se copió. Estaba agradecido de haber pasado tiempo clasificando muchos de mis archivos más antiguos.

Revisé todos los discos duros portátiles y memorias USB que poseía y me aseguré de que todos los archivos que tenía se transfirieran al NAS. Hasta ahora, mi unidad principal de trabajo era la SSD interna NVMe de 2 TB. Contenía todos los proyectos en los que había trabajado durante los últimos meses. Los copié en el nuevo NAS, pero el siguiente paso fue borrar la unidad y usarla como un disco de caché de After Effects.

Solo unos años antes había pensado que tener un NAS de 20 TB me duraría años. Pero cuando terminé de copiar todo lo que ya tenía en mi nuevo NAS, ya había usado alrededor de 16 TB de espacio. No eran solo mis archivos de trabajo y archivos de carrera. Cosas como hacer una copia de seguridad de mi computadora portátil y configurar la máquina del tiempo, hacer copias de seguridad de teléfonos, iPads, etc., todo se sumó al total. Había proyectos más antiguos que estaban en unidades que nunca consolidé en mis "copias de seguridad" principales. En general, tenía muchas más cosas de las que pensaba.

En retrospectiva, me alegro de haber tomado la ruta de tener mucha más capacidad gracias al uso de unidades giratorias, y no solo SSD. Es bueno saber que todo está allí, en un sistema con redundancia de dos unidades y razonablemente bien ordenado.

Me sorprendió lo rápido que se tardó en poner todo en marcha. El último paso fue formatear mi unidad NVMe interna y asignarla como caché de disco de After Effects.

Sin embargo, antes de dar el último paso, hubo tiempo para un punto de referencia. Durante años me había preocupado que cualquier disco externo que usara fuera más lento que mi SSD interno. Esa suposición fue la razón principal por la que postergué la compra de un NAS adecuado y redundante durante tanto tiempo. Pero ahora era el momento de averiguarlo de verdad.

Sabía que debido a que había instalado un caché SSD en el NAS, cualquier punto de referencia regular no reflejaría el uso de After Effects en el mundo real. Ejecuté el punto de referencia AJA varias veces y los resultados variaron, pero parecía obtener velocidades de transferencia constantes de entre 600 y 800 megabytes por segundo. Sin embargo, cuando se copian grandes lotes de archivos, la velocidad de transferencia puede alcanzar ocasionalmente un máximo de 1000. En general, estoy muy contento con la velocidad de todo, pero aún quería saber cómo funcionaría un proyecto de After Effects en el mundo real.

El último proyecto que completé en mi disco interno fue un buen candidato para la evaluación comparativa, ya que era típico de los tipos de proyectos que hago regularmente. Fue un proyecto 4K que involucró muchas capas de activos renderizados en 3D. Todas las capas 3D se renderizaron como secuencias EXR.

Comenzando con el proyecto existente en el disco interno, limpié mi sistema, purgué cachés, etc., y rendericé desde cero sin nada más ejecutándose en mi máquina. El tiempo de renderizado fue de unas 3 horas. Luego purgué/borré todo de nuevo y volví a renderizar. El tiempo de renderizado fue el mismo, en 15 segundos. Parecía un resultado preciso.

Luego borré y purgué todo nuevamente y rendericé el mismo proyecto desde mi nuevo NAS. Se procesó en aproximadamente 2 horas y 45 minutos; en otras palabras, aproximadamente 15 minutos más rápido, o aproximadamente un 10 % más rápido. Esto fue completamente inesperado. No tenía idea de por qué la renderización desde el NAS externo sería más rápida que desde el SSD interno. Aclaré/purgué todo y volví a renderizar. Mismo resultado, en 15 segundos.

No tengo una explicación para este misterio, pero es un misterio agradable de tener.

Desde Covid, he estado trabajando permanentemente desde casa. Es importante tener una oficina en casa y una configuración hogareña que sea funcional y cómoda. Tener un NAS adecuado significa que ya no me avergüenzo de mirar mi escritorio y su variedad de unidades portátiles. Es bueno poder entrar a la oficina de mi casa para comenzar a trabajar y sentirme feliz y cómodo con mi computadora.

Este fue un blog personal largo, pero he estado escribiendo artículos sobre After Effects durante más de 20 años. ¡Échales un vistazo aquí!

¡El destino al que acuden los cineastas para equipos de preproducción, producción y posproducción!

Wow Chris, hiciste que alguien que normalmente no lee artículos largos... lea un artículo largo, felicitaciones. Debo decir que principalmente seguí leyendo porque tenía curiosidad sobre tu camino y tu destino final. Aunque también, fue una pieza increíblemente bien escrita: no soy un asesino de gramática / error tipográfico, pero no me puedo quejar. Yo estaba en una situación similar, aunque sin el mismo nivel de urgencia. Mi evolución de datos no fue la misma que la tuya, pero lo principal es que ambos encontramos una solución que nos convenía personalmente. Todo lo mejor desde el Reino Unido. Chris PS Google sugirió su artículo en mi teléfono.

Guau. Buen artículo. No recuerdo la última vez que leí algo tan largo de principio a fin. Gracias por tu tiempo y esfuerzo para escribirlo.

Esa fue una lectura insoportablemente difícil. Siento que me debes dinero.

La única razón por la que no me detuve fue porque quería saber si la agregación de enlaces funcionaba para usted.

Ejecuto una tarjeta SPF+ de 10 Gb de doble puerto directamente en mi NAS (sin interruptor involucrado) y no puedo hacer que funcione la agregación de enlaces porque necesito Windows 10 Server.

En el futuro, contrata a un editor de Fivver o algo así.

No dejes que los detractores te depriman, Chris. Tú lo haces.

Para su información, si habilita los paquetes beta en Synology y descarga el nuevo cliente SMB, puede habilitar "multicanal", que utiliza múltiples puertos no administrados en su conmutador. Suponiendo que su cliente es Windows.

Además, la respuesta correcta para las redes 10G en estos días es Mikrotik. Si elige la ruta SFP+, puede usar cables DAC que son muy baratos y puede obtener tarjetas SFP+ mellanox connect-x 3 en eBay por $ 15 cada una. Tenemos tantos ahora en la oficina que ni siquiera sé qué hacer con ellos. Incluso puede usarlos en un Synology y ahorrar $150 en comparación con las tarjetas de marca. El uso de SFP+ también significa que puede comprar conmutadores de 100 Gbe y usar una conexión QSFP+ (quad SFP+) y servir a 4 computadoras desde un solo puerto. https://www.servethehome.com/mikrotik-crs504-4xq-in-review-momentus-4x-100gbe-and-25gbe-desktop-switch-marvell/

Si no te importa ensuciarte las manos con equipo usado, el equipo de 40 gbe es bastante barato en eBay.

años Barato, rápido o confiable Redundante Redundancia 4 es el número mínimo de velocidad Trabajando en aislamiento Las unidades están cambiando Grandes activos No es mi problema Robótica de datos: más allá de RAID Drobo: 4 bahías de decepción SSD: viendo el futuro Mudarse al garaje Mirando más allá Más allá de RAID Sin prisa por ir hacia atrás Flash… ah ahhhh Presupuesto Covid Western Digital: 2 bahías de buena suerte Este no es el NAS que está buscando Gire a la derecha Caché en mano 3 nuevos problemas Vinculación de agregados Conduciéndolo por la pared Conmutado Presiona el botón Demasiado fácil Más de lo que parece Un último misterio