AFheck.NET을 사용하여 디렉토리에 웹캠 이미지를 저장하려고합니다. 여기 내 코드입니다 : public partial class Form1 : Form
{
public Form1()
{
InitializeComponent();
}
FilterInfoCollection webcam;
VideoC
저는 aForge와 협력 중이며 USB 웹캠에서 비디오 피드의 해상도를 설정하여 pictureBox에 적합하게하려고합니다. 800x600의 해상도를 목표로하고 있지만, 기본 해상도는 약 640x480입니다. 해상도를 설정하려고하면 "읽기 전용 필드의 멤버를 수정할 수 없습니다"라는 메시지가 나타납니다. aForge에 대한 경험이있는 사람이라면 누구나 아이디
안녕하세요 신경 애호가, AForge에서 SOM 학습 알고리즘에 대해 약간 혼란스러워합니다. 구현시 가장 일반적인 경우 인 2 차원 SOM을 가정합니다. 웹상의 다른 SOM 그래픽을 살펴보면 시간이 지남에 따라 신경 세포의 위치가 바뀌는 것으로 나타났습니다. 비슷한 뉴런들이 결합됩니다. 나는 소스 코드를보고지도에서 뉴런의 위치가 고정되어 있다는 것을 알았다
나는 질문이있다. 나는 Gaussian Sharpen에서 이미지를 변환하고 싶지만 "image"인수를 만드는 방법을 모른다. 내 코드의 그 : int[,] kernel = {
{ -2, -1, 0 },
{ -1, 1, 1 },
{ 0, 1, 2 } };
Convolution filter = new Convoluti
우리의 목표는 Kinect에서 나오는 적외선 이미지로 동영상을 만드는 것입니다. 우리는 AF 비디오 데코더을 사용하고 있습니다. 우리는 이미 표준 RGB 스트림으로 작업 할 수있는 코드를 가지고 있습니다. (RgbResolution640x480Fps30) 문서 (http://msdn.microsoft.com/en-us/library/microsoft.kin
Windows Forms 응용 프로그램과 함께 AForge.NET을 사용하는 데 많은 문제가 있습니다. 응용 프로그램은 비디오를 사용자 지정 PictureBox에 표시하고 동시에 같은 스트림을 사용하여 색상을 사용하여 개체를 추적하는 비트 맵 스트림이 필요합니다. 나는 비디오 소스의 이미지를 임시 이미지로 복사하고 모니터를 사용하여 아래에서 볼 수 있듯이
Compare Extention Method를 호출 할 때 AForge.Imaging, i am getting Template's size should be smaller or equal to source image's size을 사용하여 2 개의 비트 맵을 비교하려고합니다. public static Boolean Compare(this Bitmap ima
gabor 필터를 사용하여 청구 OCR 스크립트를 감지하고 있습니다. Accord.net 프레임 워크를 사용하고 있는데 Accord에서 gabor 필터를 사용하여 이미지를 가보 이미지로 변환했지만 단어의 언어를 식별하기 위해 네트워크를 학습하는 데 사용할 수있는 gabor 필터를 사용하여 피쳐 추출이 필요합니다. gabor 필터를 사용하여 이미지의 특징을