행렬 곱셈을 계산하기 위해 모바일 애플리케이션을 설계했지만 제한된 크기로 작동합니다. 따라서 행렬 곱셈 응용 프로그램을 재 설계하여 클라이언트 - 서버 모델을 사용하여 큰 차원 (5000 * 5000)을 계산할 수 있도록합니다. 그러면 입력 파일을 서버로 보내고 서버는 클라이언트로 출력 파일을 반환합니다. 나는 어떻게 안드로이드에서 클라이언트 - 서버 모델
그래서 두 개의 정적 메쉬 (애니메이션 없음)가 있습니다. AABB와 자세한 삼각형 오버랩 검사를 사용하여 오버랩 (충돌) 여부를 결정할 수있는 알고리즘이 있습니다. 하지만 이제는 깊이 침투 계산을 추가하여이를 확장하고 싶습니다. 나는 두 개의 삼각형 사이의 깊이 침투를 계산할 수있는 무언가를 썼다. 두 개의 삼각형 사이의 최소 거리는 중첩을 막기 위해 이
저는 최근에 계산 모델을 연구 해왔고 질문이 떠 올랐습니다. 많은 계산 모델의 경우 실제 컴퓨터에서 구현할 수있는 것처럼 보입니다. 사실 일부는 실제 물리적 개체를 기반으로합니다. 예를 들어 Automatas (FSM, PDA 및 Turing Machine), Post-Machines, RAM Machine와 같은 명령형 모델이 그 예입니다. 이것은 양자
가 주어진 2 문자열 : 나는 ATS stringB H에서 각 문자 여부를 확인 할 String stringA = "WHATSUP";
String stringB = "HATS";
존재 함 stringA 주니어 어프로치에서 프로세스는 계산 복잡도가 O (n^2) 인 중첩 된 for-loop 내에서 수행 될 수 있습니다. for(int i = 0; i <
ios-charts을 통합하려고합니다. json 응답에 기초하여 y-axis of graph dynamically을 레이아웃하고 싶습니다. 예 : - json에 50 개의 값이 포함 된 경우 10 (50/5) +5 = 15 y 축 값을 그립니다. 이 15 개의 값에는 최소 및 최대 json 값이 포함되어야합니다. 나머지 13 개의 값은 그 사이에 고정 단계
팬더에서 내가하는 많은 것들이 내가 가지고있는 데이터의 양에 볼록한 계산 시간 비용 (예 : 1 행은 1 초, 2 행은 2.2 초, 4 행은 6 초 등)을 가지고있는 것으로 보입니다. 왜 계산 비용이 선형 적으로 데이터 양을 늘리지 않는 이유는 무엇입니까? 예를 들어,이 함수는 다음과 같이 썼습니다. def fractrips1brand(trip):
저는 처음으로 프로그래밍 수업을 듣고 있으며, 두 번째 실험실에서는 이미 내 엉덩이를 걷어차 고 있습니다. 교수는 사용자로부터 십진법 (입력)으로 피트 단위로 측정 한 후 피트 및 인치 단위로 별도로 출력 (출력) 할 수있는 프로그램을 작성하길 원합니다. 시작하는 방법에 혼란 스럽습니다. print ("This program will convert your
수천 라인의 거대한 프레임 워크와 일부 MB를 내 프로젝트에 추가하지 않고도 간단한 계산으로 CPU 계산 능력을 벤치 마크하려고합니다. 이 샘플 코드는 개발했습니다. 그것은 100 배나되는 큰 일을합니다. 이 거대한 임무 (benchmark() 함수)는 수학 복합 계산을 수행하고 100ms의 기간 동안 카운터를 증가시키는 잠시 동안 이루어집니다. 100ms
안녕하세요 내가 해결하고 삼각 함수의 죄와 같은 기능 (x)와 COS 상승 : 내 값이 잘못 단지 매우 정확하지 없습니다 제 질문은 이러한 기능의 정확성을 향상시킬 수 있는지 여부입니다. 모든 것을 시도했지만 제안이 필요하다고 생각합니다. double trig::funcsin(int value)
{
sum = 0;
//summation