Как я могу инвертировать движение курсора в Python?
в этом коде я использую Python 2.7.13, OpenCV 2.4.13 и PyAutoGUI 0.9.36. Цель состоит в том, чтобы переместить курсор в соответствии с движением лица, но движение курсора перевернуто. Например, если лицо уходит в право, курсор движется влево и если мое лицо влево, указатель вправо. Кроме того, я хочу, чтобы курсор перемещался вправо, влево, вверх и вниз по всему экрану моего ПК, размер которого x=1920, y=1080.
цель этой программы-показать, что это можно получить новый способ получить больше независимости и доступа, чтобы люди с тетраплегией были способны выполнять простые действия, которые являются частью рутины миллионов людей, такие как включение и выключение света и включение и выключение телевизора.
import cv2
import pyautogui
faceCascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')
video_capture = cv2.VideoCapture(0)
while True:
# Capture frame-by-frame
ret, frame = video_capture.read()
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
faces = faceCascade.detectMultiScale(
gray,
scaleFactor=1.3,
minNeighbors=5,
minSize=(80, 80),
flags=cv2.cv.CV_HAAR_SCALE_IMAGE
)
#print 'faces: ', faces
# Draw a rectangle around the faces
for (x, y, w, h) in faces:
cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 0, 255), 3)
#width, height = pyautogui.size()
#cursorx, cursory = pyautogui.position()
#posx = width - cursorx
#posy = cursory
pyautogui.moveTo(x+w, y+h)
# Display the resulting frame
#cv2.imshow('Video', frame)
rimg = cv2.flip(frame,1) #invert the object frame
cv2.imshow("vertical flip", rimg)
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# When everything is done, release the capture
video_capture.release()
cv2.destroyAllWindows()
2 ответов
Если вы знаете размер экрана, просто вычесть то, что вы сейчас от размера экрана, чтобы получить курсор на противоположной стороне. Например:
pyautogui.moveTo(1920 - (x+w), 1080 - (y+h))
Если бы x+w получал вам положение экрана 2 (слева от экрана), теперь он получил бы вам положение экрана 1918 (справа от экрана)
это хорошая вещь, которую вы делаете.
чтобы исправить только движение мыши, вы можете вычесть движение x, y из размера экрана. Но затем охватывая его на весь экран с помощью pyautogui.moveTo (x,y) было бы очень неточным и шумно. Вместо smoother вы можете использовать
pyautogui.moveRel(None, steps)
С учетом сказанного, если вы используете каскад лица в первую очередь, было бы очень трудно переместить лицо для соответствующего движения мыши. Использование ориентации лица как наклон влево или вправо, я бы сказал.
в приведенном ниже коде я использовал каскады глаз для левого правого движения. Так что немного наклонить лицо было бы достаточно для движения. Я работал над OpenCV 3.2, поэтому при необходимости внесите необходимые изменения в свою версию.
код
import numpy as np
import cv2
import pyautogui
right = cv2.CascadeClassifier('haarcascade_righteye_2splits.xml')
left = cv2.CascadeClassifier('haarcascade_lefteye_2splits.xml')
smile = cv2.CascadeClassifier('haarcascade_smile.xml')
cam=cv2.VideoCapture(0)
blank=np.zeros((480,848,3),dtype=np.uint8) # Change this correctly to size of your image frame
fix=0
print "press y to set reference box for y motion" #set a reference initially for y motion
while(cam.isOpened()):
ret,img = cam.read()
r=0
l=0
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
r_eye= right.detectMultiScale(gray, 1.9, 9)
l_eye= left.detectMultiScale(gray, 1.9, 9) #Change these values according to face distance from screen
for (rx,ry,rw,rh) in r_eye:
cv2.rectangle(img,(rx,ry),(rx+rw,ry+rh),(255,255,0),2)
r_c=(rx+rw/2,ry+rh/2)
r=1
for (lx,ly,lw,lh) in l_eye:
cv2.rectangle(img,(lx,ly),(lx+lw,ly+lh),(0,255,255),2)
l_c=(lx+lw/2,ly+lh/2)
l=1
if(r*l):
if(l_c[0]-r_c[0]>50):
cv2.line(img,r_c,l_c,(0,0,255),4)
mid=((r_c[0]+l_c[0])/2,(r_c[1]+l_c[1])/2)
cv2.circle(img,mid,2,(85,25,100),2)
if(fix==1): # Change this part of code according to what you want
# for motion along y direction
if( mid[1]<one[1]):
pyautogui.moveRel(None, -15)
if(mid[1]>two[1]):
pyautogui.moveRel(None, 15)
if(cv2.waitKey(1))== ord('y'):
blank=np.zeros_like(img)
one=(mid[0]-60,r_c[1]-7) # Change the Value 60,7 to change box dimentions
two=(mid[0]+60,l_c[1]+7) # Change the Value 60,7 to change box dimentions
cv2.rectangle(blank,one,two,(50,95,100),2)
fix=1
elif(r) : pyautogui.moveRel(-30, None) # Change the Value and Sign to change speed and direction
elif (l): pyautogui.moveRel(30, None) # Change the Value and Sign to change speed and direction
img=cv2.bitwise_or(img,blank)
cv2.imshow('img',img)
if(cv2.waitKey(1))==27:break
cv2.destroyAllWindows()
в коде вам нужно нажать y, чтобы установить поле для ссылки на движение y. Из коробки, с обоими глазами будет движение.
мы можем добавить улыбка каскад для щелчка мыши, но это немного неточно и медленно на данный момент. Нужно выяснить, лучшие варианты, как щелчок глаза или что-то.
Это очень простой код, чтобы все работало. Пометки в нейронных сетях для выражения лица может быть намного лучше, но опять же скорость является фактором.