TARIFNAME BIR SANAL KLAVYE VE FARE KULLANIMINI SAGLAYAN BIR Teknik Alan Bu bulus, yapay zekâ algoritmalari araciligiyla bir kullanicinin el hareketlerinin takip edilerek kullanicinin sanal gerçeklik ve artirilmis gerçeklik ortamlari ile etkilesime girmesini saglayan bir sistem ile ilgilidir. Önceki Teknik Günümüzde, elektronik cihazlar, sanal gerçeklik ve aitirilmis gerçeklik ortamlari ile kullanici etkilesimini saglamak için ayrilmis alan gerektiren ve mobil veya kompakt ortamlarda pratik olmayan fiziksel klavyeler ve fareler, dokunsal geri bildirim ve giris seçenekleri açisindan sinirlayici olabilen dokunmatik ekranlar, pahali ve tüm uygulamalarla uyumlu olmayan özel sanal gerçeklik/artirilmis gerçeklik denetleyicileri, genellikle özel donanim gerektiren veya sinirli islevsellige sahip hareket tanima cihazlari seklinde çesitli cihazlar mevcuttur. Ancak bu yöntemlerin tasinabilirlik eksikligi, geleneksel giris cihazlarinin sanal gerçeklik/artirilmis gerçeklik ortamlarina sinirli entegrasyonu, çesitli kullanici tercihleri veya fiziksel yetenekler için uyarlanabilirlik ve özellestirme seçeneklerinin olmamasi seklinde dezavantajlari bulunmaktadir. Bu sebeple mevcut teknikte bulunan çalismalar ve eksiklikler göz önünde bulunduruldugunda, kullanicilarin dogal el hareketlerini kullanarak klavye ve fare gibi fiziksel çevre birimlerine ihtiyaç duymadan cihazlariyla etkilesime girmesine olanak taninmasini ve engelli veya sinirli hareket kabiliyetine sahip kullanicilar için iyilestirilmis erisilebilirligin sunulmasini saglayan bir sisteme ihtiyaç duyuldugu anlasilmaktadir. Teknigin bilinen durumunda yer alan USZOl90265781Al sayili Birlesik Devletler patent dokümaninda, sanal veya artirilmis gerçeklik ortaminda bir sanal giris cihaziyla bir kullanici etkilesimi saglayan bir sistemden bahsedilmektedir. Söz konusu bulustaki sistemde bir sanal giris cihazi bir görüntüleme cihazi tarafindan islenmekte, bir kullanicinin elinin hareketi izlenmekte, bir darbe tespit cihazindan, kullanicinin elinin en az bir parmaginin fiziksel bir yüzey üzerinde tespit edilen bir darbesine karsilik gelen darbe verileri alinmakta, algilanan etkinin islenmis sanal giris cihazina göre konumu belirlenmektedir. Teknigin bilinen durumunda yer alan bir diger doküman olan USZOl90295322Al sayili Birlesik Devletler patent dokümaninda, karma gerçeklik ve/veya aitirilmis gerçeklik etkilesimli deneyimleri saglayan çevresel cihazlarla ilgilidir. Söz konusu bulustaki sistemde çevresel aygitlar, insan ve bilgisayar arasinda arayüz olusturmak için kullanilmaktadir. Bazi yaygin çevresel aygitlar arasinda klavyeler, bilgisayar fareleri, görüntü tarayicilar, hoparlörler, mikrofonlar, web kameralari, basa takilan ekran, prob uçlari, kalemler, isaretçi aygitlari ve daha fazlasi bulunmaktadir. Bu çevresel aygitlardan bazilari, bir kullanicidan gelen bir hareketi bir girdi olarak algilamakta ve hareketi bilgisayara bir girdi olarak çevirmektedir. Bir bilgisayar faresi gibi elde tutulan bir çevresel aygitin yüzeye göre hareketi, bir grafik kullanici arabiriminde görüntülenen bir imlece karsilik gelen harekete çevirebilmektedir. Ayrica klavye, bir tusun hareketini ve/veya parmagin tusa dokunma hareketini algilamakta ve tus tarafindan temsil edilen belirli bilgileri görüntülemek için bilgisayara bir sinyal göndermektedir. Bulusun Kisa Açiklamasi Bu bulusun amaci, yapay zekâ algoritmalari araciligiyla bir kullanicinin el hareketlerinin takip edilerek kullanicinin sanal gerçeklik ve artirilmis gerçeklik ortamlari ile etkilesime girmesini saglayan bir sistem gerçeklestirmektir. Bu bulusun bir diger amaci, kullanicinin el hareketlerini klavye ve fare girisine dönüstürerek kullanicinin fiziksel çevre birimlerine ihtiyaç duymadan görevleri gerçeklestirmesine olanak taninmasini saglayan bir sistem gerçeklestirmektir. Bulusun Ayrintili Açiklamasi Bu bulusun amacina ulasmak için gerçeklestirilen "Bir Sanal Klavye ve Fare Kullanimini Saglayan Bir Sistem" ekli sekilde gösterilmis olup, bu sekil; Sekil-l; Bulus konusu sistemin sematik görünüsüdür. Sekilde yer alan parçalar tek tek numaralandirilmis olup, bu numaralarin karsiliklari asagida verilmistir. 1. Sistem 2. Elektronik Cihaz 3. Kamera 4. Sunucu Kullanicinin el hareketlerini klavye ve fare girisine dönüstürerek kullanicinin fiziksel çevre birimlerine ihtiyaç duymadan görevleri gerçeklestirmesine olanak tanimasini saglamak amaciyla gelistirilen bulus konusu sistem (1); - herhangi bir uzak iletisim protokolünü kullanarak veri alisverisi gerçeklestirmek ve üzerinde en azindan bir uygulama yürütmek üzere yapilandirilan en az bir elektronik cihaz (2), - görüntü yakalamak ve kullanici el hareketlerini gerçek zamanli olarak izlemek üzere yapilandirilan en az bir kamera (3), - herhangi bir uzak iletisim protokolünü kullanarak elektronik cihaz (2) ile iletisim kurmak, kamera (3) ile veri alisverisi gerçeklestirmek, makine ögrenimi ve bilgisayarla görme algoritmalari araciligiyla kamera (3) üzerinden erisilen kullanicinin el hareketi verilerini analiz etmek ve belirli hareketleri klavye ve fare eylemleri seklinde girdi olarak tanimlamak ve elektronik cihaz (2) üzerine sanal gerçeklik ve artirilmis gerçeklik ortamlarini entegre etmek üzere yapilandirilan en az bir sunucu (4) içermektedir. Bulus konusu sistemde (1) yer alan elektronik cihaz (2), herhangi bir uzak iletisim protokolünü kullanarak veri alisverisi gerçeklestirmek ve üzerinde en azindan bir uygulama yürütmek üzere yapilandirilmaktadir. Elektronik cihaz (2), cep telefonu, bilgisayar, diz üstü bilgisayar ve tablet seklinde bir cihazdir. Elektronik cihaz (2), teknigin bilinen durumunda yer alan herhangi bir uzak iletisim protokolünü kullanarak sunucu (4) ile baglanti kurmak ve kurulan bu baglanti üzerinden kamera (3) ve sunucu (4) arasinda veri alisverisi gerçeklesmesini saglamak üzere yapilandirilmaktadir. Bulusun tercih edilen uygulamasinda elektronik cihaz (2), sunucu (4) ile Internet seklinde bir veri yolu kullanarak veri alisverisi gerçeklestirmek üzere yapilandirilmaktadir. Bulus konusu sistemde (1) yer alan kamera (3), elektronik cihaz (2) üzerinde yürütülmekte olup, kullanicinin ellerinin görüntülerini gerçek zamanli olarak izlemek ve yakalamak üzere yapilandirilmaktadir. Bulus konusu sistemde (1) yer alan sunucu (4), teknigin bilinen durumunda yer alan herhangi bir iletisim protokolünü kullanarak elektronik cihaz (2) ile iletisim kurmak ve kurulan bu iletisim üzerinden elektronik cihaz (2) üzerinde yürütülen kamera (3) ile veri alisverisi gerçeklestirmek üzere yapilandirilmaktadir. Sunucu (4), elektronik cihaz (2) ile Internet seklindeki bir veri sebekesi üzerinden iletisim kurmak üzere yapilandirilmaktadir. Sunucu (4), kamera (3) ile veri alisverisi gerçeklestirmek üzere yapilandirilmaktadir. Sunucu (4), kamera (3) üzerinden eristigi kullanicinin el görüntülerini tanimlamak ve islemek üzere yapilandirilmaktadir. Sunucu (4), makine ögrenimi ve bilgisayarla görme algoritmalari araciligiyla kamera (3) üzerinden eristigi kullanicinin el hareketi verilerini analiz etmek ve hareketleri klavye ve fare eylemleri seklinde girdi olarak tanimlamak üzere yapilandirilmaktadir. Sunucu (4), elektronik cihaz (2) üzerine sanal gerçeklik ve artirilmis gerçeklik ortamlarini entegre etmek üzere yapilandirilmaktadir. Sunucu (4), makine ögrenimi ve bilgisayarla görme algoritmalari araciligiyla kamera (3) üzerinden eristigi kullanicinin hareketlerini klavye ve fare eylemleri seklinde girdi olarak tanimlayarak kullanicilarin elektronik cihazlari (2) üzerine entegre edilen sanal gerçeklik ve artirilmis gerçeklik ortamlari ile etkilesimde bulunmalarini saglamak üzere yapilandirilmaktadir. Sunucu (4), elektronik cihaz (2) üzerine entegre edilen sanal gerçeklik ve artirilmis gerçeklik ortamlari üzerinde kullanicilarin sanal giris düzeni ve hareket tanima ayarlari seklindeki tercihlerini kendi bireysel ihtiyaçlarina ve yeteneklerine uyacak sekilde ayarlamalarini saglamak üzere yapilandirilmaktadir. Bulusun sanayiye uygulanmasi Bulus konusu sistemde (1) sunucu (4), kamera (3) üzerinden eristigi kullanicinin el görüntülerini tanimlamak ve islemekte, makine ögrenimi ve bilgisayarla görme algoritmalari araciligiyla kamera (3) üzerinden eristigi kullanicinin el hareketi verilerini analiz etmekte ve belirli hareketleri klavye ve fare eylemleri seklinde girdi olarak tanimlamaktadir. Sunucu (4), elektronik cihaz (2) üzerine sanal gerçeklik ve artirilmis gerçeklik ortamlarini entegre etmekte, makine ögrenimi ve bilgisayarla görme algoritmalari araciligiyla kamera (3) üzerinden eristigi kullanicinin belirli hareketlerini klavye ve fare eylemleri seklinde girdi olarak tanimlayarak kullanicilarin elektronik cihazlari (2) üzerine entegre edilen sanal gerçeklik ve artirilmis gerçeklik ortamlari ile etkilesimde bulunmalarini saglamaktadir. Sunucu (4), elektronik cihaz (2) üzerine entegre edilen sanal gerçeklik ve artirilmis gerçeklik ortamlari üzerinde kullanicilarin sanal giris düzeni ve hareket tanima ayarlari seklindeki tercihlerini kendi bireysel ihtiyaçlarina ve yeteneklerine uyacak sekilde ayarlamalarini saglamaktadir. Böylece görüntü yakalama ve isleme, hareket tanima, sanal gerçeklik/artirilmis gerçeklik entegrasyonu, yapay zekâ tabanli hareket tanima ve özellestirilebilir bir sanal giris teknolojileriyle çok yönlü ve kullanici dostu bir çözüm sunularak, kullanicilarin dogal el hareketlerini kullanarak klavye ve fare gibi fiziksel çevre birimlerine ihtiyaç duymadan cihazlariyla etkilesime girmesine olanak taninmasi ve engelli veya sinirli hareket kabiliyetine sahip kullanicilar için iyilestirilmis erisilebilirligin sunulmasi saglanmaktadir. Bu temel kavramlar etrafinda, bulus konusu "Bir Sanal Klavye ve Fare Kullanimini Saglayan Bir Sistem (1)" ile ilgili çok çesitli uygulamalarin gelistirilmesi mümkün olup, bulus burada açiklanan örneklerle sinirlandirilamaZ, esas olarak istemlerde belirtildigi gibidir. TR TR TR TR TR TR TR TR TRDESCRIPTION A TECHNICAL FIELD THAT ENABLES THE USE OF A VIRTUAL KEYBOARD AND MOUSE This invention relates to a system that enables a user to interact with virtual reality and augmented reality environments by tracking their hand movements through artificial intelligence algorithms. Previous Technical Field Today, various devices exist for enabling user interaction with virtual reality and augmented reality environments, including physical keyboards and mice that require dedicated space and are impractical in mobile or compact environments, touch screens that can be limiting in terms of haptic feedback and input options, expensive and not compatible with all applications, specialized virtual reality/augmented reality controllers, and motion recognition devices that often require specialized hardware or have limited functionality. However, these methods have disadvantages such as lack of portability, limited integration of traditional input devices into virtual reality/augmented reality environments, and the absence of adaptability and customization options for various user preferences or physical abilities. Therefore, considering the studies and shortcomings in the current technology, it is understood that there is a need for a system that allows users to interact with their devices using natural hand movements without the need for physical peripherals such as keyboards and mice, and that provides improved accessibility for users with disabilities or limited mobility. The United States patent document, USZOl90265781Al, which falls under the state of the art, describes a system that enables user interaction with a virtual input device in a virtual or augmented reality environment. In the system described in this invention, a virtual input device is processed by a display device, the movement of a user's hand is tracked, and impact data corresponding to a detected impact of at least one finger of the user's hand on a physical surface is received from an impact detection device, and the location of the detected impact relative to the processed virtual input device is determined. Another document in the state of the art, United States Patent No. USZOl90295322Al, relates to peripheral devices that provide mixed reality and/or augmented reality interactive experiences. In the system described in this invention, peripheral devices are used to create an interface between humans and computers. Some common peripheral devices include keyboards, computer mice, image scanners, speakers, microphones, webcams, head-mounted displays, probes, pens, pointing devices, and more. Some of these peripheral devices can detect a movement from a user as input and translate that movement into input for the computer. The movement of a handheld peripheral device, such as a computer mouse, relative to a surface can be translated into a movement corresponding to a cursor displayed on a graphical user interface. Similarly, a keyboard can detect the movement of a key and/or the touch of a finger on a key and send a signal to the computer to display specific information represented by the key. Brief Description of the Invention: The aim of this invention is to realize a system that, through artificial intelligence algorithms, tracks a user's hand movements and enables the user to interact with virtual reality and augmented reality environments. Another aim of this invention is to realize a system that converts the user's hand movements into keyboard and mouse input, allowing the user to perform tasks without needing physical peripherals. Detailed Description of the Invention The system developed to achieve the purpose of this invention, "A System Enabling the Use of a Virtual Keyboard and Mouse", is shown in the attached figure; Figure-l; is the schematic view of the system in question. The parts in the figure are numbered individually, and the corresponding numbers are given below. 1. System 2. Electronic Device 3. Camera 4. Server The system in question, developed to enable the user to perform tasks without needing physical peripherals by converting the user's hand movements into keyboard and mouse input (1); The invention includes at least one electronic device (2) configured to exchange data using any remote communication protocol and to run at least one application on it; at least one camera (3) configured to capture images and track user hand movements in real time; and at least one server (4) configured to communicate with the electronic device (2) using any remote communication protocol, exchange data with the camera (3), analyze the user hand movement data accessed through the camera (3) using machine learning and computer vision algorithms, define specific movements as input in the form of keyboard and mouse actions, and integrate virtual reality and augmented reality environments onto the electronic device (2). The electronic device (2) in the system (1) is configured to exchange data using any remote communication protocol and to run at least one application on it. The electronic device (2) is a device in the form of a mobile phone, computer, laptop, and tablet. The electronic device (2) is configured to connect with the server (4) using any remote communication protocol available under the known state of the art and to enable data exchange between the camera (3) and the server (4) via this connection. In the preferred application of the invention, the electronic device (2) is configured to exchange data with the server (4) using a data bus in the form of the Internet. The camera (3) in the system (1) is run on the electronic device (2) and is configured to monitor and capture images of the user's hands in real time. In the system in question (1), the server (4) is configured to communicate with the electronic device (2) using any communication protocol available under the known state of the art and to exchange data with the camera (3) running on the electronic device (2) through this communication. The server (4) is configured to communicate with the electronic device (2) over a data network in the form of the Internet. The server (4) is configured to exchange data with the camera (3). The server (4) is configured to identify and process the hand images of the user accessed through the camera (3). The server (4) is configured to analyze the hand movement data of the user accessed through the camera (3) through machine learning and computer vision algorithms and to identify the movements as input in the form of keyboard and mouse actions. Server (4) is configured to integrate virtual reality and augmented reality environments onto electronic devices (2). Server (4) is configured to enable users to interact with virtual reality and augmented reality environments integrated onto electronic devices (2) by identifying the user's movements accessed via camera (3) as input in the form of keyboard and mouse actions through machine learning and computer vision algorithms. Server (4) is configured to allow users to adjust their preferences in the form of virtual input patterns and motion recognition settings on the virtual reality and augmented reality environments integrated onto electronic devices (2) to suit their individual needs and abilities. Industrial application of the invention In the system (1), the server (4) identifies and processes the hand images of the user accessed through the camera (3), analyzes the hand movement data of the user accessed through the camera (3) via machine learning and computer vision algorithms, and defines certain movements as input in the form of keyboard and mouse actions. The server (4) integrates virtual reality and augmented reality environments onto the electronic device (2), and enables users to interact with the virtual reality and augmented reality environments integrated onto their electronic devices (2) by defining certain movements of the user accessed through the camera (3) via machine learning and computer vision algorithms as input in the form of keyboard and mouse actions. The server (4) enables users to adjust their virtual input layout and motion recognition settings on the virtual reality and augmented reality environments integrated onto the electronic device (2) to suit their individual needs and abilities. Thus, a versatile and user-friendly solution is offered with image capture and processing, motion recognition, virtual reality/augmented reality integration, AI-based motion recognition and customizable virtual input technologies, allowing users to interact with their devices using natural hand gestures without needing physical peripherals such as keyboards and mice, and providing improved accessibility for users with disabilities or limited mobility. Around these basic concepts, it is possible to develop a wide variety of applications related to the invention subject "A System Enabling the Use of a Virtual Keyboard and Mouse (1)", and the invention is not limited to the examples described herein, but mainly as stated in the requirements.