hdf5

    0

    2답변

    윈도우 용 hdf5 뷰어를 찾고 vitables를 발견했습니다. 그러나 vitables에는 sip이 필요합니다. 아나콘다에서는 모든 종류의 설치 문제가 있습니다. 또 다른 대안은 HDFview가 될 수 있지만 전체 Java 설치가 필요합니다 (저는 Python을 사용합니다). 실제로 독립형 HDF5 뷰어가 없습니까, 아니면 여기에 중요한 점을 놓치고 있습니

    1

    2답변

    나는 왜 내가 이러한 오류를 얻고 있는지 궁금합니다. 이미 H5cpp.h가 포함되어 있습니다. 기존 hdf5 데이터베이스에서 문자열을 읽으려고합니다. 또한 memspace를 어떻게 정의 할 것인지 잘 모르겠습니다. 당신 Reader.cpp: In member function ‘void Reader::SetFasta()’: Reader.cpp:10: err

    2

    1답변

    팬다/파이 테이블을 사용하면 store.keys()을 사용하여 키 목록을 쉽게 반환 할 수 있습니다. /이 포함되지 않는 키가, if 'df_coord' in store.keys():를 존재하는지 표준 사전 검사를 사용는 >>> store.keys() ['/df_coord', '/metaFrame'] , false를 돌려줍니다. 문자열을 결합하지 않고

    0

    1답변

    소스 파일의 전체 정밀도를 반영하는 float 값을 사용하여 ascii로 덤프하려는 3D 배열로 된 HDF4 파일이 여러 개 있습니다. HDP : HDP dumpsds을 사용했지만 6 자리의 정밀도 만 인쇄하고 올림합니다. 필자가 선호하는 것은 HDF4를 읽도록 만들어진 오픈 소스 유틸리티입니다. 파이썬이나 자바? 감사. (HDF5라는 태그를 사용했는데 H

    0

    1답변

    큰 (500K x 500K) 매트릭스에 저장 될 플로트 번호가 있습니다. 가변 크기의 배열을 사용하여 청크에 저장합니다 (특정 조건에 따라). 배열을 생성하고 공유 대기열에 넣는 병렬 코드 (parallellised code)와 대기열에서 튀어 나온 하나의 전용 프로세스를 HDF5 행렬에 하나씩 씁니다. 예상대로 약 90 %의 시간 동안 작동합니다. 때때로

    11

    2답변

    나는 수백만 개의 행과 100 개 이상의 컬럼을 가진 Oracle 데이터베이스로 작업하고 있습니다. 특정 열을 인덱싱 한 pytables를 사용하여이 데이터를 HDF5 파일에 저장하려고합니다. 나는 팬더 DataFrame에서 이러한 데이터의 하위 집합을 읽고 계산을 수행 할 것입니다. 내가 시도한 다음 다운로드 테이블, csv 파일로 유틸리티를 사용하여,

    3

    1답변

    저 차원에서 Cython을 사용하여 2D 배열 전반의 흐름 문제를 해결하는 라이브러리를 개발합니다. 이러한 배열이 numpy 배열 인 경우 정적으로 입력 할 수 있으므로 해당 배열에 임의 액세스하는 Python 인터프리터 오버 헤드를 피할 수 있습니다. 크기가 너무 커서 메모리에 맞지 않는 배열을 처리하기 위해 numt 대신 pytables에서 hd5fil

    7

    2답변

    팬더에서 사용하기 위해 변환하려는 여러 개의 대형 (> 10GB) SAS 데이터 세트가 있습니다 (HDF5가 바람직 함). 여러 데이터 유형 (날짜, 숫자, 텍스트)이 있고 일부 숫자 필드에는 누락 값 (예 : .E, .C 등의 값이있을 수 있음)에 대한 다른 오류 코드가 있습니다. 열 이름을 유지하려고합니다. 레이블 메타 데이터도 포함됩니다. 누구든지 효

    1

    1답변

    C++에서 기본적인 hdf5 데이터 세트 읽기/쓰기 작업을 시도했습니다. HDF5-DIAG: Error detected in HDF5 (1.8.12) thread 0: #000: ..\..\src\H5F.c line 1503 in H5Fcreate(): unable to create file major: File accessibilty minor: U

    9

    2답변

    '&'문자가 포함 된 문자열을 기반으로 행 선택으로 확장되는 것으로 밝혀진 HDFStore로 그룹화 문제가 발생했습니다. 이것은 내가 documentation에서 뭔가를 놓치고 또는이 버그의 경우있어 경우 >>> store.select('test', 'a="test & test"') Int64Index([], dtype='int64') Empty D