나는 항상 내 마음에 이러한 질문을했다 : 1 수있는 64 컴퓨터에서 86 컴퓨터 실행에 컴파일 된 응용 프로그램? 2- x64 컴퓨터에서 컴파일 된 응용 프로그램을 x86 컴퓨터에서 실행할 수 있습니까? 3 차이가 있습니까? 4 1과 2가 그렇다면 왜 일부 응용 프로그램에는 각각의 OS 비트에 대한 다운로드가 다르며 lua52는 일부 OS에서만 작동하는
64 비트 Mac OS X을 사용하고 있습니다. NSUInteger (또는 uint64, 시스템에서는 문제가되지 않습니다)가 있습니다. NSUInteger의 상위 20 비트를 가져 와서 다른 NSUInteger에 저장하는 방법은 무엇입니까? C, C++ 또는 Objective-C에서이를 수행하는 방법에 대한 답을 얻을 수 있습니다. P. 제발, 모든 코드를
저는 mips를 처음 사용합니다. 기본 함수 (레지스터 사용 방법, syscall을 사용하여 int를 스캔 및 스캔하는 방법)를 알고 있지만 32 비트 정수의 개별 비트에 액세스하여 1의 수를 계산하는 방법을 파악할 때 벽을 두드렸다. 그 안에. 모든 비트를 나타 내기 위해 int 배열을 작성해야한다고 생각했습니다. 그러나 더 쉬운 방법이 있어야하는 것처럼
이 비트 배열 처음 13 비트를 가지고 13bits로 변환 할 BitArray bits = new BitArray(17);
정수 부호 비트의 배열과 나머지가 정수로 BitArray 4 비트 변환 부호있는 정수 BitArray 13 비트로 변환 4 비트는 4 비트 정수로 변환됩니다. C#으로 어떻게 할 수 있습니까?
byte[] sample = new byte[]{10,20,30};
-THE 값은 6 비트이고, (오른쪽에서 왼쪽으로) 제 3 비트에서 시작 새로운 바이트 [] {10,20,30}를 "00001010 00010100 00011110는"(같은 순서이어야 같다 이 그래서 "00001010 00010100 * 000,111 * 10" - 내 값은 Yaur)
코딩 중이며 다음 코드는 원하는 출력을 제공하지 않습니다. pos & 1은 pos가 2로 나뉠 때 나머지를 반환합니다. pos & 1을 pos % 2로 바꿀 때 모든 것이 잘됩니다. 무엇이 문제 일 수 있습니까? #include <iostream>
using namespace std;
int main(){
int y;
unsigned
처음 8 비트와 16 비트 값의 마지막 8 비트를 바꿔 보려고했습니다. 예를 들어, 00000001 11001100은 11001100 00000001이됩니다. 글쎄, 어떻게 구현 해야할지 모르겠다. 다른 방법을 시도했지만 작동하지 않습니다 .... 어떤 도움을 주시면 감사하겠습니다. 이 질문이 간단하면 죄송합니다. 나는 이제 막 조금 배우기 시작했다. u.
well 부호없는 short의 비트가 설정되어 있는지 여부를 확인하십시오. 그래서 x의 비트 i가 설정되면 1을, 그렇지 않으면 0을 반환합니다. 또한 비트가 오른쪽에서 0으로 번호 매겨 졌음을 기억해야합니다 : b15b14b13 ... b3b2b1b0. 글쎄, 그런 식으로 시도했지만 작동하지 않는다고 생각합니다 ... 어떤 도움을 주시면 감사하겠습니다.
Windows에서 32 비트와 64 비트의 차이점을 이해하는 방법은 64 비트가 3GB 이상의 메모리를 사용할 수 있다는 것입니다. 64 비트가 더 빨리 작동하지만 32 비트를 권장하는 이유는 무엇입니까? 64 비트가 더 많은 메모리를 볼 수 있다면, 더 빨리 일할 수 있습니다. 왜 여전히 32 비트가 존재하며 왜 사람들은 64 비트가 아닌 우분투를 위해