series

    1

    2답변

    희망을 보내 주시면 감사하겠습니다. 나는 파이썬과 팬더에 익숙하지 않으므로 나와 함께하시기 바랍니다. 나는 세 개의 데이터 프레임 사이에 공통 단어를 찾으려고 노력하고 있으며 목성 노트를 사용하고 있습니다. 그냥 예를 들어, 모든 데이터 프레임에 하나의 열이 있습니다 df1= A dog cat cow duck snake df2= A pig

    -1

    1답변

    팬더 시리즈와 각 팬더 시리즈에서 선택된 인덱스 배열이 있습니다. 이것은 장난감 데이터입니다. index = np.array([0,1,0]) row = pd.Series([np.array([1,2,3]),np.array([2,3,4]),np.array([3,4,5])]) 완구 데이터 위에서 아래와 같은 처리 데이터를 원합니다. [row.iloc[0][

    1

    1답변

    내가 컬럼의 가장 빈번한 값/가장 지배적를 얻기 위해 노력하고 있어요 열에서 가장 지배적 인 값을 가져옵니다, 그래서 나는 나에게주는 다음 코드 df['currency'].value_counts(normalize=True) , 예를 들어, 시도 USD 0.800000 CAD 0.100000 EUR 0.050000 GBP 0.050000 현재 에

    0

    1답변

    내 스크립트에는 아래에 표시된 것과 같이 df [ 'Time']이 있습니다. 497 2017-08-06 11:00:00 548 2017-08-08 15:00:00 580 2017-08-10 04:00:00 646 2017-08-12 23:00:00 Name: Time, dtype: datetime64[ns] 하지만 t1=pd.Timestamp(d

    0

    1답변

    시리즈 팬더에 0보다 큰 나는 더 큰 제로보다 if(ser > 0) print 'Bigger' 파이썬은 나에게 오류가 있습니다 '더 큰'각 값에 대해 인쇄 할 경우 : 에 ValueError를 : 시리즈의 진실 값은 모호합니다. a.empty, a.bool(), a.item(), a.any() 또는 a.all()을 사용하십시오.

    0

    1답변

    와 시리즈 groupy 것은 여기에 포인트 얻을 수있는 예는 다음과 같습니다 missing_values=-999.0 level1=pd._libs.interval.Interval(-np.inf, 1, closed='right') level2=pd._libs.interval.Interval(1,np.inf, closed='right') data=pd.D

    2

    2답변

    저는 에너지 이름이 & 인 데이터 프레임을 가지고 있습니다. 국가의 에너지 출력이 에너지 출력의 중앙값보다 높거나 낮은 지 여부에 따라 1 또는 0을 할당하는 새 열을 추가해야합니다. 일부 더미 코드는 다음과 같습니다 import pandas as pd def answer(): df = pd.DataFrame({'name':['china', 'a

    0

    1답변

    유형 시리즈의 플롯 팬더 dataframe 나는 100 % 확실하지 않다하지만 난 그게 ndarrays가 들어 생각이 -2.00 [-24.4907, -24.4594, -24.4321, -24.4012, -24.3... -1.75 [-23.8154, -23.7849, -23.7601, -23.7326, -23.7... -1.00 [-23.7131, -23

    0

    1답변

    score 열 (일치하는 결과 포함)을 공백을 기준으로 분할하여 여러 개의 행에 내 팬더 ​​데이터 프레임의 단일 행을 확장해야합니다. 이 데이터가 내가 here에서 접근 방식을 사용하는 목표를 달성하기 위해 A B score 1 2 6-1 6-2 3 4 6-4 4-6 6-3 모습입니다. 약간 접근 방식을 적응으로, 내 dataframe은 다음과 같

    1

    1답변

    나는 캐릭터 등의 중첩리스트 목록 아래 가지고 L1 = ["['32', '54', '139', '195', 'NR6', 'NR7']", "['32', '54', '139', '195', 'NR6', 'NR7']", "['32', '54', '139', '195', 'NR1', 'NR2', 'NR3', 'NR5', 'N R6', 'NR7', 'NR8