파이썬의 네이티브 bignum을 알고리즘으로 사용하여 C++로 변환하여 속도를 높이기로 결정했습니다. long long을 사용했을 때 C++은 파이썬보다 약 100 배 빠르지 만 C++에서 GMP 바인딩을 사용했을 때 파이썬보다 10 배 빠릅니다 (long long에 맞춰 같은 경우). 다수의 작은 추가를 수행하는 데 더 나은 bignum 구현이 있습니까?
나는의 bignum 라이브러리를 개발하고 : http://pastebin.com/nFgF3zjW 내가 밀러 - 라빈 알고리즘 (isprime())를 구현하지만 예에는 OpenSSL의 BN_is_prime_fasttest에 비해 매우 느립니다. 프로파일 링을 시도했으며 가장 많이 실행되는 기능은 bn_shr_atomic 및 bn_cmp입니다. 어떻게하면 더
개인 프로젝트로서 나는 내 애완 동물 프로젝트에 임의의 정밀 숫자 형식을 구현하려고합니다. 이미 널리 알려지고 테스트되고 강력한 라이브러리에 대해 알고 있습니다. 나는 자기 개선 교육 프로젝트로서 해결책을 찾고 싶다. 나는 지역을 연구하고 실제로 계산을하기 전에 작업이 오버 플로우가 발생할 경우 대략 예측 몇 가지 방법이 있는지 알아 내려고 노력하고 있어요
보통 파이썬 파일에서 정밀도를 설정하는 방법은 getcontext().prec입니다. 이 설정을 변경 할 수있는 다른 방법이 있나요 을 정의되지 않은 전역 이름 '는 getContext을', 또는 IronPython을 얻을하지 않습니다 나가서 설명하자면 NameError를 : 나는 IronPython의이을 실행할 때 getcontext().prec = 10
임의의 정밀도로 bcmath extension을 사용하는 Number 클래스가있는 PHP 라이브러리를 작성하고 있습니다. INT 내장하고 떠 유형을 사용하는 방법에 훨씬 낮은 속도를 을 비교한다 bc 수학 : 나는이 개 질문이? bcmath에는 선택 사항 인 scale argument (기본값은 3 자리)이 있습니다. 누구나 사용할 수있는 범용 Number
나는 Mandelbrot Set의 2D 이미지를 계산하기 위해 C 프로그램 인 long double in을 사용하고 있지만 더욱 정밀하게 확대 할 수있는 정밀도를 원합니다. long double 정밀도에서 임의 정밀도로 곧바로 뛰어 오르는 대신 필요한 정밀도를 제한 할 수있는 임의 정밀도 수학 라이브러리로 인해 성능상의 이점이 있습니까? 임의 정밀도 수학
Windows에서 오래 전에 사용했던 계산기 프로그램이 있습니다. 그 이름을 기억하지 못했지만, 인상적인 것은 512 바이트 크기까지 계산할 수 있다는 것입니다. 예를 들어, pi 값을 요청하면 수백 자리 숫자를 줄 수 있습니다. (물론 출력하는 데는 몇 초가 걸립니다.) 일반적으로 int는 4 바이트, 더블 8 바이트 등이됩니다. 이제 어떻게 할 수 있습