Un NAS Synology DiskStation o QNAP TS-Series con RAID degradado, volumen corrompido, datos cifrados por ransomware o hardware averiado no implica pérdida definitiva de los datos. El error más frecuente es inicializar el volumen o reconstruir el RAID sin clonar los discos primero — una acción que destruye los metadatos imprescindibles para la recuperación. Esta guía explica los escenarios de fallo más habituales en entornos empresariales, qué hace exactamente un laboratorio especializado, y cuánto cuesta recuperar los datos en 2026.
Datos clave — Recuperación NAS empresarial
600€ – 4.000€ + IVA
5 – 15 días hábiles
70 – 90%
Gratuito y sin compromiso
Fallos más comunes en NAS Synology y QNAP en entornos empresariales
Los dispositivos NAS de gama media y alta —Synology DiskStation DS923+, DS1522+, RS1221+; QNAP TS-464, TS-873A, TVS-h1688X— son la columna vertebral del almacenamiento centralizado en miles de pymes y despachos profesionales en España. Combinan hardware accesible con software sofisticado (Synology DSM, QNAP QTS/QuTS hero) y configuraciones RAID por software basadas en el módulo mdadm de Linux. Esa misma complejidad es lo que hace que sus fallos sean difíciles de resolver sin el equipamiento y el conocimiento adecuados.
1. RAID degradado: un disco marcado como "Crashed" o "Failed"
Es la incidencia más frecuente. El NAS detecta que uno de los discos del array ha superado el umbral de errores SMART, ha dejado de responder o presenta un número elevado de sectores pendientes (atributo SMART C5). DSM notifica el estado "Degraded" con una alerta por email; QTS muestra el grupo RAID en rojo en Storage & Snapshots. Mientras el número de discos fallidos esté dentro de la tolerancia del nivel RAID, el NAS sigue operativo. El problema llega durante la reconstrucción.
El proceso de rebuild lee el 100% de los datos de todos los discos supervivientes para recalcular el contenido del disco fallido. En arrays de 4-8 discos de 8-16 TB, esta operación puede durar 24-72 horas. Si cualquier disco superviviente tiene un error de lectura no corregible (URE — Uncorrectable Read Error) durante ese proceso, la reconstrucción falla y el RAID queda completamente inaccesible. Los discos NAS-grade (Seagate IronWolf Pro, WD Red Pro, HGST Ultrastar DC) tienen tasas de URE 10-100 veces mejores que los discos de consumo, precisamente para mitigar este riesgo.
2. RAID fallido: múltiples discos fuera de línea simultáneamente
Un corte de corriente sin SAI durante una escritura intensiva puede provocar que el NAS, al volver a encender, considere múltiples discos como "desynced" o directamente los marque como fallidos. También ocurre cuando se superan los límites de tolerancia del RAID: en RAID 5, la pérdida de un segundo disco durante la reconstrucción; en RAID 6, la pérdida de un tercer disco. El NAS no monta el volumen y los datos no son accesibles por ningún medio estándar.
3. Corrupción del volumen: Btrfs o ext4 inconsistente
Synology utiliza Btrfs (desde DSM 6.0, 2016) o EXT4 en sistemas más antiguos o cuando los discos no son suficientemente compatibles. QNAP utiliza EXT4 en QTS y ZFS o Btrfs en QuTS hero (para NAS de gama alta). La corrupción del sistema de ficheros ocurre cuando el NAS se apaga de forma inesperada durante una operación de escritura que involucra estructuras de árbol del sistema de ficheros (superbloque, árbol de inodos, árbol de extensiones). DSM puede detectar el volumen como "dañado" pero sin posibilidad de reparación desde la interfaz.
El punto crítico con Btrfs es que su estructura en árbol B (B-tree) distribuye los metadatos por todo el volumen. La herramienta btrfs check tiene opciones de reparación que en versiones antiguas del kernel Linux causaban más daño que el fallo original. La regla es: nunca ejecutes btrfs check --repair en producción sin imagen previa.
4. Formato accidental o reinicialización del NAS
Ocurre con más frecuencia de lo esperado cuando el responsable IT intenta "reinstalar DSM" para solucionar un problema de arranque sin comprender que la opción "Reinstall" del Synology Assistant puede inicializar el volumen de datos. También cuando se añade un nuevo disco al NAS y se selecciona accidentalmente la opción de crear un nuevo volumen en lugar de añadirlo al pool existente. En QNAP, el botón "Initialize" del asistente de configuración rápida tiene el mismo efecto devastador.
5. Ransomware en NAS: DeadBolt, QLocker, eCh0raix
Los NAS con acceso directo a Internet (QuickConnect en Synology, myQNAPcloud en QNAP, o puertos SMB/FTP directamente expuestos) son objetivos habituales de ransomware. La campaña DeadBolt de 2021-2022 comprometió decenas de miles de dispositivos QNAP explotando vulnerabilidades en QTS. eCh0raix afectó tanto a QNAP como a Synology. En 2025-2026, grupos de ransomware de nivel APT han comenzado a usar NAS con acceso SMB como punto de entrada a redes corporativas y cifrar simultáneamente el NAS y los equipos de la red local.
El impacto empresarial es especialmente grave porque el NAS suele contener los archivos compartidos de toda la organización: proyectos, facturas, bases de datos, backups de estaciones de trabajo. Si las snapshots de Synology Hyper Backup o QNAP Snapshot Manager no estaban configuradas correctamente, o si el ransomware las eliminó, la recuperación depende exclusivamente del laboratorio.
6. Fallo de hardware del NAS: controladora, fuente de alimentación, placa base
El hardware del propio NAS puede fallar independientemente de los discos. La controladora SATA/SAS integrada, la memoria RAM (que gestiona la caché de escritura), la fuente de alimentación o la placa base del NAS pueden averiarse. En estos casos, los discos están físicamente sanos pero no se puede acceder a los datos porque el NAS no funciona. La solución técnica —conectar los discos a otro NAS compatible o a un sistema Linux en laboratorio— parece sencilla, pero requiere cuidado: los parámetros del array RAID (orden de discos, stripe size, algoritmo de paridad) deben identificarse correctamente antes de intentar montar el volumen.
7. Incompatibilidad en la sustitución o migración de NAS
Un escenario específico del entorno empresarial: la empresa decide reemplazar un NAS antiguo por uno nuevo y mueve los discos directamente. En teoría, tanto Synology como QNAP permiten la migración de discos entre unidades de la misma familia. En la práctica, existen restricciones de versión de DSM/QTS, de número de bahías y de compatibilidad de modelo que no siempre se documentan correctamente. Si la migración falla, el nuevo NAS puede no reconocer el array o intentar reinicializarlo. Hemos atendido casos donde el técnico responsable de la migración movió los discos a un NAS incompatible y al reiniciar el NAS sobrescribió los primeros sectores del array con los metadatos del nuevo volumen vacío.
Qué NO hacer cuando falla tu NAS: errores que destruyen los datos
- NUNCA inicialices el volumen ni hagas reset de fábrica — el asistente de "Reinstalar DSM" puede inicializar todos los datos del volumen si no se ejecuta correctamente
- NUNCA reconstruyas el RAID sin clonar los discos primero — si el rebuild falla por un segundo error, los metadatos del RAID original pueden quedar destruidos
- NUNCA cambies el orden de los discos en las bahías — el orden físico forma parte de la estructura del RAID; basta con mover un disco a otra bahía para que el array no se monte
- NUNCA ejecutes
btrfs check --repairnifsck -ysin imagen previa — en sistemas de ficheros modernos, una reparación mal ejecutada puede ser más destructiva que el fallo original - NUNCA pongas los discos en otro NAS de diferente modelo o versión de firmware sin verificar compatibilidad — puede sobrescribir los metadatos del RAID con una nueva configuración vacía
- NUNCA formatees ni escribas datos en los discos del NAS fallido — cada escritura puede sobreescribir datos recuperables aún presentes en el disco
- NUNCA pagues el rescate del ransomware sin consultarnos — en varios casos hemos recuperado los datos sin necesidad de pago y con mayor integridad que con la clave del atacante
La regla fundamental es la de "primero, no hacer daño adicional". Un NAS con RAID fallido es como un disco duro averiado: cuanto menos se manipule, mayores son las probabilidades de recuperación. El laboratorio puede trabajar con datos parciales, metadatos incompletos y discos con sectores defectuosos — pero no puede recuperar datos que han sido sobreescritos.
mdadm --assemble --force desde un sistema Linux externo. Esta operación puede funcionar en casos de corrupción leve de metadatos, pero si el array tiene discos con sectores defectuosos o si los parámetros (stripe size, orden) no se identifican correctamente, puede agravar el daño. Hazlo solo sobre imágenes de los discos, nunca sobre los discos originales.
RAID en NAS: SHR, RAID 5, RAID 6 y lo que cada nivel puede (y no puede) protegerte
Entender qué protege cada nivel RAID — y sus limitaciones concretas — es esencial para evaluar correctamente la gravedad de un fallo y las opciones de recuperación disponibles. Los NAS Synology y QNAP utilizan RAID por software gestionado por el módulo mdadm de Linux. Esto tiene una consecuencia importante para la recuperación: los parámetros del array (stripe chunk size, orden de discos, algoritmo de paridad) están almacenados en los superblocks de los propios discos, no en hardware externo.
| Nivel RAID | Discos mínimos | Tolerancia a fallos | Capacidad utilizable | Escenario de pérdida total |
|---|---|---|---|---|
| RAID 1 (espejo) | 2 | 1 disco | 50% | Ambos discos del espejo fallan |
| RAID 5 | 3 | 1 disco | (N-1)/N | 2.º fallo antes o durante rebuild |
| RAID 6 | 4 | 2 discos | (N-2)/N | 3.º fallo simultáneo o durante rebuild |
| RAID 10 (espejo+stripe) | 4 | 1 por pareja | 50% | Ambos discos de la misma pareja |
| SHR-1 (Synology Hybrid RAID) | 2+ | 1 disco | Variable según capacidades | 2.º fallo — igual que RAID 5 |
SHR: el RAID inteligente de Synology
El Synology Hybrid RAID (SHR) es la configuración por defecto en los NAS Synology de consumo y pyme. Su ventaja principal es que permite combinar discos de diferente capacidad aprovechando el espacio máximo posible, a diferencia de RAID 5 estándar que está limitado por el disco más pequeño del array. Internamente, SHR utiliza múltiples arrays RAID 1 o RAID 5 de mdadm para gestionar los discos de distintos tamaños.
Para la recuperación en laboratorio, SHR es técnicamente más complejo que RAID 5 estándar porque puede combinar múltiples arrays mdadm superpuestos con un gestor de volúmenes LVM encima. Los parámetros de cada sub-array (MD0, MD1, MD2...) deben identificarse y reconstruirse de forma independiente antes de montar el LVM. La recuperación es viable, pero requiere mayor tiempo de análisis.
RAID 5 en NAS: el equilibrio entre capacidad y protección
RAID 5 es la configuración más extendida en NAS de 3-6 discos para empresas. Distribuye los datos y la paridad en bloques de tamaño fijo (el chunk size, típicamente 64KB en Synology y QNAP) a lo largo de todos los discos del array. Con N discos, la capacidad útil es (N-1) × capacidad del disco menor.
El parámetro de paridad en mdadm puede tener distintas rotaciones: left-symmetric (la más habitual en Synology), left-asymmetric, right-symmetric o right-asymmetric. Conocer este parámetro es imprescindible para reconstruir el array sin la superblock de mdadm. Los laboratorios especializados determinan este parámetro mediante análisis de los bloques de paridad: se calculan los valores XOR esperados para cada combinación y se verifica cuál produce resultados coherentes en el sistema de ficheros.
RAID 6: la opción para arrays de gran capacidad con alta disponibilidad
RAID 6 usa doble paridad (algoritmos P y Q independientes — Reed-Solomon para Q en la implementación mdadm). Con 4 o más discos de gran capacidad (8TB+), RAID 6 es la configuración recomendada porque la probabilidad de un segundo fallo durante el rebuild aumenta significativamente con el tamaño de los discos. La reconstrucción lógica de RAID 6 en laboratorio es la más compleja de todos los niveles: requiere identificar no solo el chunk size y el orden de los discos, sino también los coeficientes del campo de Galois GF(2^8) usados en el algoritmo Q.
Por qué reconstruir sin clonar puede destruir el array
Cuando el NAS inicia una reconstrucción automática al detectar un disco nuevo, escribe los superblocks de mdadm actualizados en todos los discos del array —incluyendo el nuevo disco añadido. Si durante ese proceso un disco superviviente tiene un URE en un sector crítico, la reconstrucción se detiene con el array en estado inconsistente: algunos discos tienen el superblock actualizado al nuevo estado del array y otros al estado anterior. En este punto, el propio firmware del NAS puede marcar el array como corrupto y ofrecerte la opción de "inicializar y empezar de nuevo" — exactamente lo que debes evitar. El laboratorio puede distinguir entre los superblocks de versión anterior y versión nueva y reconstruir el estado correcto del array.
Ext4 vs Btrfs: implicaciones para la recuperación
EXT4 usa un diseño de metadatos fijo: el superbloque, los descriptores de grupo de bloques y las tablas de inodos están en posiciones conocidas y predecibles. Esto facilita la recuperación incluso con daño parcial: herramientas como ext4magic, testdisk o R-Studio pueden reconstruir el árbol de directorios desde los inodos aunque el superbloque principal esté dañado (EXT4 tiene superblocks de respaldo distribuidos por el volumen).
Btrfs, en cambio, almacena los metadatos en árboles B distribuidos por todo el volumen, sin posiciones fijas. El superbloque de Btrfs tiene cuatro copias en posiciones conocidas (desplazamientos 0x10000, 0x4000000, 0x4000000000, 0x4000000000000), pero la raíz del árbol de sistema de ficheros apunta a bloques de árbol que se actualizan con cada transacción. Si el NAS se apaga durante una transacción, la raíz puede apuntar a bloques parcialmente escritos. Btrfs dispone de copias de transacciones anteriores (el árbol de generaciones), lo que permite a herramientas especializadas retroceder a un estado coherente anterior al fallo.
Proceso de recuperación en laboratorio: qué hacemos exactamente
El proceso de recuperación de un NAS empresarial en nuestro laboratorio sigue un protocolo estandarizado en cinco fases. En ningún momento trabajamos sobre los discos originales — todas las operaciones se realizan sobre imágenes forenses, preservando el estado original de cada disco.
Fase 1: Evaluación individual de cada disco
Antes de intentar cualquier operación sobre el array, evaluamos el estado de cada disco individualmente. Conectamos los discos a nuestras estaciones forenses (PC-3000 UDMA de ACE Laboratory, DeepSpar Disk Imager) para leer el estado SMART completo, identificar sectores con errores de lectura (C5 — Current Pending Sectors, C6 — Uncorrectable Sector Count) y evaluar si hay daño físico: cabezas averiadas, daño en platos, fallo en la electrónica o en el firmware del disco.
Si algún disco tiene daño físico que impide la lectura completa en condiciones normales, lo llevamos a nuestra sala limpia ISO Clase 5 para las reparaciones necesarias: sustitución de cabezas con donante compatible, reparación de la PCB o extracción directa de datos de los platos. Este paso puede añadir 3-5 días al proceso, pero es imprescindible para maximizar la imagen obtenida de cada disco.
Fase 2: Imagen sector por sector de todos los discos
Con cada disco en el mejor estado posible, realizamos una imagen sector por sector completa. El equipo DeepSpar reintenta automáticamente los sectores con errores con parámetros ajustables de tiempo de espera y número de reintentos, maximizando la cantidad de datos leídos de discos en mal estado. Para discos de 8-16 TB en buen estado, la imagen tarda 6-14 horas. Para discos con daño moderado, puede llevar 24-72 horas por disco.
El resultado es un fichero de imagen completo para cada disco, idéntico bit a bit al contenido del disco original. Todo el trabajo posterior se realiza sobre estas imágenes, que además se almacenan en nuestro servidor de recuperación durante el proceso — si una operación de reconstrucción produce un resultado incorrecto, podemos volver al estado de las imágenes originales y probar con parámetros diferentes.
Fase 3: Identificación y reconstrucción del array RAID
Con las imágenes disponibles, analizamos los superblocks de mdadm de cada disco para obtener los parámetros del array original: UUID del array, nivel RAID, chunk size, número de discos, número de dispositivos activos y posición de cada disco en el array. En la mayoría de los casos (array sin reinicialización posterior), los superblocks están intactos y proporcionan toda la información necesaria.
Cuando los superblocks están dañados o han sido sobreescritos (por ejemplo, en casos de migración fallida a otro NAS o reconstrucción parcial abortada), determinamos los parámetros por análisis de los bloques de datos: probamos sistemáticamente las combinaciones de chunk size (16KB, 32KB, 64KB, 128KB, 256KB), orden de discos y algoritmo de paridad (left-symmetric, right-symmetric) hasta encontrar la que produce un sistema de ficheros coherente. Esta fase puede llevar entre 2 horas (caso simple) y 2 días (caso con superblocks destruidos y múltiples discos con sectores defectuosos).
El proceso en detalle con mdadm para reconstrucción de imagen en laboratorio:
# Examinar superblock de cada imagen de disco mdadm --examine disk1.img disk2.img disk3.img disk4.img # Montar el array desde imágenes (loop devices) sin iniciar reconstrucción losetup /dev/loop1 disk1.img losetup /dev/loop2 disk2.img losetup /dev/loop3 disk3.img losetup /dev/loop4 disk4.img # Ensamblar array en modo solo lectura (--readonly) mdadm --assemble --readonly /dev/md0 /dev/loop1 /dev/loop2 /dev/loop3 /dev/loop4 # Si falta un disco, forzar ensamblaje con disco faltante marcado como missing mdadm --assemble --force --readonly /dev/md0 /dev/loop1 /dev/loop2 missing /dev/loop4 # Montar el volumen Btrfs o EXT4 en solo lectura para extracción mount -o ro,norecovery /dev/md0 /mnt/nas_recovery
Fase 4: Recuperación del sistema de ficheros
Con el array montado, el siguiente paso depende del estado del sistema de ficheros. Si está en buen estado (fallo solo en hardware del NAS, no en los discos), los datos se extraen directamente con una copia recursiva. Si el sistema de ficheros tiene corrupción interna, utilizamos herramientas especializadas según el tipo:
- EXT4:
ext4magicpara recuperar inodos borrados o corruptos;photorec/foremostpara file carving en sectores sin estructura de directorios válida; análisis manual de grupos de bloques con bloques de datos no referenciados - Btrfs:
btrfs restore(que lee el árbol de sistema de ficheros en modo de solo lectura sin intentar reparación); análisis de snapshots internas de Btrfs para recuperar versiones anteriores de ficheros sobreescritos; herramientas comerciales como R-Studio con soporte específico de Btrfs - ZFS (QNAP QuTS hero):
zpool import -f -Ren modo de solo lectura;zfs listpara enumerar datasets y snapshots; recuperación desde snapshots ZFS automáticas si estaban configuradas
Fase 5: Entrega, verificación y recomendaciones
Los datos recuperados se entregan en el soporte elegido por el cliente: disco externo USB, NAS nuevo, servidor de empresa o transferencia segura por SFTP. Antes de la entrega, verificamos la integridad de los archivos más críticos (bases de datos, ficheros de configuración, proyectos activos) y proporcionamos un informe de recuperación que documenta el estado de cada disco, los parámetros del array y los archivos recuperados. Este informe es válido como documentación ante la AEPD en caso de brecha de seguridad bajo RGPD.
Comparativa Synology DSM vs QNAP QTS: diferencias de recuperación
| Aspecto | Synology DSM | QNAP QTS / QuTS hero |
|---|---|---|
| Sistema de ficheros predeterminado | Btrfs (gama media/alta) / EXT4 (gama entrada) | EXT4 (QTS) / ZFS o Btrfs (QuTS hero) |
| Gestión RAID | mdadm + LVM (especialmente en SHR) | mdadm (QTS) / ZFS raidz (QuTS hero) |
| Chunk size por defecto | 64 KB (RAID 5/6), 512 KB (SHR) | 64 KB (QTS RAID 5/6) |
| Snapshots nativas | Btrfs snapshots + Snapshot Replication App | Snapshot Manager (EXT4/Btrfs); ZFS snapshots automáticas en QuTS hero |
| Complejidad de recuperación SHR/ZFS | Alta (SHR multi-MD + LVM) | Alta-muy alta (ZFS raidz: requiere tools específicas) |
| Partición del sistema en los discos de datos | Sí — primeros 2-3 GB de cada disco | Sí — primeros GB variables según modelo |
Un detalle importante que afecta a la recuperación: tanto Synology como QNAP almacenan el sistema operativo (DSM/QTS) en particiones dedicadas dentro de los propios discos de datos — generalmente en los primeros 2-3 GB de cada disco. Esto significa que los discos de un NAS tienen una estructura de particiones más compleja que un disco de servidor convencional: partition 1 (sistema DSM/QTS), partition 2 (swap), partition 5 (datos del array). El laboratorio debe identificar correctamente estas particiones antes de intentar montar el array RAID de datos.
Precios de recuperación de NAS empresarial en 2026
El coste de recuperación de un NAS depende principalmente de tres factores: el número de discos en el array, el nivel de daño físico en los discos individuales, y la complejidad de la reconstrucción del array (si los metadatos RAID están intactos o no). El siguiente desglose refleja los precios habituales en nuestro laboratorio para 2026.
| Escenario | Descripción típica | Precio orientativo | Plazo |
|---|---|---|---|
| Fallo lógico simple | Corrupción DSM/QTS, borrado accidental sin daño físico, RAID degradado 1 disco con superblocks intactos | 600 – 900€ + IVA | 3 – 7 días |
| RAID multi-fallo (sin daño físico) | RAID 5 con 2 discos fallidos, rebuild abortado, migración NAS fallida, superblocks parcialmente dañados | 900 – 1.800€ + IVA | 5 – 10 días |
| Con daño físico en 1-2 discos | Cabezas averiadas, daño en platos, fallo de electrónica — requiere sala limpia ISO 5 | 1.500 – 3.000€ + IVA | 7 – 15 días |
| NAS de gran escala (8+ discos) | NAS empresariales con 8-16 discos, RAID 6 o RAID 10, arrays de 50-200TB | 2.000 – 4.000€ + IVA | 10 – 20 días |
| Ransomware en NAS | DeadBolt, QLocker, eCh0raix u otras cepas — con o sin snapshots disponibles | 500 – 1.800€ + IVA | 5 – 12 días |
Los precios son orientativos. El diagnóstico es siempre gratuito y sin compromiso. No cobramos si no recuperamos datos. Para empresas con incidente activo, ofrecemos servicio urgente con recogida en 24 horas en toda España. Solicita presupuesto sin compromiso.
Factores que encarecen la recuperación
- Número de discos en el array: cada disco adicional requiere su propia imagen forense (6-14h por disco en buen estado)
- Daño físico en las cabezas de lectura: requiere sala limpia ISO Clase 5 y piezas donantes compatibles — añade 500-1.000€ por disco
- Metadatos RAID destruidos: la identificación de parámetros por análisis de bloques puede añadir 1-2 días de trabajo técnico
- Arrays SHR con múltiples sub-arrays mdadm: la complejidad de reconstrucción LVM sobre múltiples MD aumenta el tiempo de análisis
- Densidad de datos en discos deteriorados: discos de 16-20 TB con muchos sectores defectuosos requieren múltiples pasadas de imagen
Factores que pueden facilitar (y abaratar) la recuperación
- Superblocks de mdadm intactos: si los metadatos del array están completos, la reconstrucción es rápida y directa
- Snapshots activas en el momento del fallo: las Btrfs snapshots de Synology o las snapshots de QNAP pueden restaurar el estado del sistema de ficheros sin necesidad de reconstrucción forense
- Fallo exclusivamente en el hardware del NAS (no en los discos): si los discos están sanos, la recuperación es prácticamente garantizada
- Discos NAS-grade (IronWolf Pro, WD Red Pro): menor probabilidad de daño físico y mejor respuesta a los reintentos de lectura
¿Tu NAS Synology o QNAP ha fallado?
No inicialices el volumen. Contacta ahora — diagnóstico gratuito para empresas.
Solicitar diagnóstico gratuitoPreguntas frecuentes sobre recuperación de NAS
Llama ahora al 900 899 002 (gratuito) o escríbenos por WhatsApp. Diagnóstico gratuito. Recogida urgente en toda España. Solicitar presupuesto →