메모리 사용량이 큰 큰 데이터 프레임을 사용하여 반복 값 열에서 dtype을 변경하면 많은 양의 메모리를 절약 할 수 있다고 읽었습니다. 나는 그것을 시도했지만 정말로 25 % 메모리 사용량을 떨어 뜨 렸지만 그때 나는 이해할 수없는 성능 느려짐에 부딪쳤다. dtype 'category'열에 group by aggregation을 수행하고 dtype을 변경
는 x 및 y 말한다. 나는 그들이 똑같은 최고의 정확도에 있는지 확인하고 싶다. dtypes의 관계 비교 내가 원하는 뭔가를한다는 것을 보이지만 : 나는 실제로 그것은 내가 동의하는 경우 확실하지 않다 그 numpy.int64 < numpy.float16을 생각 비교 모르겠어요
def common_precision(x, y):
if x