내 컴퓨터는 두 개의 USB 장치로 이루어진 미러 된 zfs 풀에서 부팅됩니다. 같이하는 데 사용되는 풀 : sudo zpool status
pool: freenas-boot
state: ONLINE
scan: resilvered 891M in 15h19m with 0 errors on Wed Mar 29 03:29:55 2017
config:
"zpool create tank mirror disk1 disk2 mirror disk3 disk4"와 같이 하나의 풀에 2 개의 미러 쌍이있는 경우 RAID 0과 같은 구성으로 2 쌍을 구성합니까? 쌍 사이에 RAID0을 갖고 싶지 않습니다. 따라서 disk1과 2가 모두 실패하면 여전히 데이터가 절반 밖에 없습니다. MacOS에서 openZFS를 사용
우분투 16.04와 드라이브를 가지고 있고 zfs로 두 개의 드라이브가 생겼습니다. 이제 세 개의 드라이브를 다른 컴퓨터로 옮겼습니다. 두 드라이브에있는 zfs 풀을 볼 수 없습니다. sudo zpool list는 아무것도 반환하지 않고 zpool을 수행합니다. 수입품, 모두에 관하여 불평하십시오 : cannot import '/dev/disk/ata-ST
새 디스크를 ZFS 미러 모드로 설정하고 있습니다 (Ubuntu-16.04-Root-on-ZFS 사용). 슬프게도 내가 설치 한 내용을 엉망으로 만들고 다시 시작해야했습니다. . 나는 (이 문서의 단계 6.5) 재부팅하면 오류 가지고 : cannot import 'rpool': more than one matching pool
import by numer
문제가 있습니다. 나는 하나의 파일로 된 2.5Tb의 단일 볼륨으로 구성된 풀 (pool)을 만들어서 파일 중복으로 싸울 뿐이다. 사진이있는 폴더를 복사했습니다. 일부 사진은 백업되지 않았습니다. 방금 풀 폴더가 비어 있습니다. 내가 'sudo zfs list'로 확인했을 때 'No datasets available'이라고 표시했습니다. 나는 그것이 분리되
zfs 데이터 세트의 체크섬을 읽거나 액세스 할 수 있습니까? 나는 부츠 사이에 변화가 없다는 것을 확인하기 위해 그것을보고 싶다. 읽는 중 https://en.wikipedia.org/wiki/ZFS#ZFS_data_integrity : Merkle Tree의 최상위 체크섬이 사용자 공간에서 액세스 할 수있는 zfs의 체크섬 구성표입니까?
안녕하세요 Stackoverflowers, 나는 오래된 Tyan 서버 마더 보드 및 ZFS에 궁금한 문제가 있습니다. 간단히 말해, 매시간 zfs scrub을 실행할 수 있으며 더 이상 오류없이 항상 체크섬을 복구합니다. 가 나는 오류도 을 showhing 없지만 체크섬 오류를 보여주는 유지 닦고 smartctl -t long /dev/ada{0,1,2}을
zfs가있는 워크 스테이션 용 시스템 빌드를 계획 중입니다. 모든 작업 속도를 높이기 위해 일부 SSD를 사용하고 싶습니다. 미러링 사용 는 저장 속도가 느린 회전 디스크 풀과 빠른 시스템 풀을 만들 고속의 NVMe 강타로 SSD와 L2ARC를 사용하여 회전 드라이브 하나 ZFS 풀 : 지금은 더 나은이 무엇인지 궁금하네요 SATA-SSD ARC와 L2AR
풀이 변경되었는지 확인하려면 zfs list -t snapshot을 사용하고있었습니다. 마지막 스냅 샷이 일부 공간을 사용한다는 것을 보여 주었다면 풀이 변경되었고 (실제로 스크립트가) 다른 스냅 샷을 작성했음을 확신했습니다. 파일에서 1 개의 폴더에서 다른 폴더로 파일을 이동하는 경우 zfs list -t snapshot은 마지막 스냅 샷 크기로 0을 반
저는 df에 의해보고 된 바와 같이 debian 7.6에서 실행 중이던 26 기가 바이트 (58Tbytes 중)의 오래된 zfs 풀 (05-2012 작성)이 있습니다. 방금 os (debian 8.7)를 다시 설치했으며 이제 풀은 df에서 0 바이트로 표시되지만 zpool 목록에서는 1.04Tbyte "FREE"로 표시됩니다. 나는이 개 질문이 : 1) 무