[go: up one dir, main page]

ITPD20080261A1 - MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD - Google Patents

MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD Download PDF

Info

Publication number
ITPD20080261A1
ITPD20080261A1 IT000261A ITPD20080261A ITPD20080261A1 IT PD20080261 A1 ITPD20080261 A1 IT PD20080261A1 IT 000261 A IT000261 A IT 000261A IT PD20080261 A ITPD20080261 A IT PD20080261A IT PD20080261 A1 ITPD20080261 A1 IT PD20080261A1
Authority
IT
Italy
Prior art keywords
robot
interface
patient
display
targets
Prior art date
Application number
IT000261A
Other languages
Italian (it)
Inventor
Emanuele Menegatti
Francesco Piccione
Original Assignee
Provincia Lombardo Veneta I Stituto Di Cura S C
Univ Padova
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Provincia Lombardo Veneta I Stituto Di Cura S C, Univ Padova filed Critical Provincia Lombardo Veneta I Stituto Di Cura S C
Priority to ITPD2008A000261A priority Critical patent/IT1397094B1/en
Publication of ITPD20080261A1 publication Critical patent/ITPD20080261A1/en
Application granted granted Critical
Publication of IT1397094B1 publication Critical patent/IT1397094B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Neurosurgery (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Dermatology (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Neurology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Selective Calling Equipment (AREA)

Description

DESCRIZIONE DESCRIPTION

La presente invenzione riguarda un apparato di interfaccia uomo-macchina, in particolare per scopo riabilitativo, nonché un relativo metodo di riabilitazione. The present invention relates to a human-machine interface apparatus, in particular for rehabilitation purposes, as well as a relative rehabilitation method.

L’invenzione à ̈ particolarmente adatta ad essere applicata su pazienti affetti da paralisi totale e pertanto impossibilitati a soddisfare autonomamente i propri bisogni. The invention is particularly suitable to be applied on patients suffering from total paralysis and therefore unable to satisfy their own needs independently.

Sono note nell’arte interfacce tra il cervello umano e una unità di elaborazione, denominate BCI (brain computer interface), che sono state sviluppate per dare la possibilità ai pazienti con lesioni cerebrali, di comunicare con l’ambiente circostante, anche attraverso l’utilizzo di dispositivi robotici. Interfaces between the human brain and a processing unit, called BCI (brain computer interface), are known in the art, which have been developed to allow patients with brain lesions to communicate with the surrounding environment, also through the use of robotic devices.

In particolare le BCI non si basano sull’utilizzo dell’attività muscolare del paziente, bensì sfruttano particolari onde cerebrali emesse dal cervello del paziente per comandare i dispositivi robotici che fungono da attuatori fisici. In particular, the BCIs are not based on the use of the patientâ € ™ s muscular activity, but use particular brain waves emitted by the patientâ € ™ s brain to control the robotic devices that act as physical actuators.

Tali onde vengono rilevate da appositi sensori, noti nell’arte, posizionati sulla testa del paziente e convertite in segnali elettrici. Diverse tecniche sono state sviluppate nell’arte nota per elaborare questi segnali e riconoscere i comandi generati dal paziente. Nella maggior parte dei casi questi comandi vengono impartiti a dei software in esecuzione su un computer vicino al paziente. Pochi sono gli esempi nell’arte nota in cui questi comandi vengono inviati ad un robot. These waves are detected by special sensors, known in the art, positioned on the patient's head and converted into electrical signals. Several techniques have been developed in the known art to process these signals and recognize the commands generated by the patient. In most cases these commands are given to software running on a computer near the patient. There are few examples in the known art in which these commands are sent to a robot.

Le soluzioni dell’arte nota prevedono l’utilizzo di una interfaccia grafica che comprende usualmente una pluralità di opzioni o target, raffiguranti azioni richieste dal paziente (quali ad esempio il desiderio di bere, mangiare o leggere). The solutions of the known art provide for the use of a graphical interface which usually includes a plurality of options or targets, depicting actions requested by the patient (such as for example the desire to drink, eat or read).

L’interfaccia comprende inoltre un cursore mobile in maniera casuale sul display dell’interfaccia, in prossimità dei target. The interface also includes a randomly moving cursor on the interface display, near the targets.

Nel momento in cui l’utente vede il cursore lampeggiare nella direzione del target di interesse, questi emette onde cerebrali che vengono intercettate dai sensori ed inviate agli attuatori preposti al compimento dell’azione richiesta. When the user sees the cursor flashing in the direction of the target of interest, the latter emits brain waves which are intercepted by the sensors and sent to the actuators responsible for carrying out the requested action.

Le soluzioni dell’arte nota presentano alcuni svantaggi. The solutions of the known art have some disadvantages.

In particolare, le soluzioni note consentono al paziente di controllare un robot ma hanno dei limiti in termini di neuroriabilitazione ed integrazione sociale del paziente dal momento che quest’ultimo non riesce ad identificarsi con il robot in modo da considerare e percepire il robot come una estensione delle proprie percezioni. In particular, the known solutions allow the patient to control a robot but have limits in terms of neurorehabilitation and social integration of the patient since the latter is unable to identify with the robot in order to consider and perceive the robot as a extension of one's perceptions.

Il problema della presente invenzione à ̈ quello di realizzare un apparato che risolva gli inconvenienti citati con riferimento alla tecnica nota. The problem of the present invention is that of realizing an apparatus which solves the drawbacks mentioned with reference to the known art.

Tali inconvenienti e limitazioni sono risolti da un apparato in accordo con la rivendicazione 1 e da un metodo di riabilitazione secondo la rivendicazione 14. These drawbacks and limitations are solved by an apparatus according to claim 1 and by a rehabilitation method according to claim 14.

Altre forme di realizzazione della presente invenzione sono descritte nelle successive rivendicazioni. Other embodiments of the present invention are described in the subsequent claims.

Ulteriori caratteristiche ed i vantaggi della presente invenzione risulteranno maggiormente comprensibili dalla descrizione di seguito riportata di suoi esempi preferiti e non limitativi di realizzazione, in cui: Further characteristics and advantages of the present invention will be more understandable from the following description of its preferred and non-limiting embodiment examples, in which:

la figura 1 rappresenta una vista schematica di un apparato in accordo con una forma di realizzazione della presente invenzione; Figure 1 represents a schematic view of an apparatus according to an embodiment of the present invention;

la figura 2 rappresenta una vista schematica ingrandita del particolare II di figura 1, in una prima condizione operativa; Figure 2 is an enlarged schematic view of the detail II of Figure 1, in a first operating condition;

la figura 3 rappresenta una vista schematica ingrandita del particolare II di figura 1, in una seconda condizione operativa. Figure 3 is an enlarged schematic view of the detail II of Figure 1, in a second operating condition.

Gli elementi o parti di elementi in comune tra le forme di realizzazione descritte nel seguito saranno indicati con medesimi riferimenti numerici. The elements or parts of elements in common between the embodiments described below will be indicated with the same numerical references.

Con riferimento alle suddette figure, con 4 si à ̈ globalmente indicato un apparato di interfaccia uomomacchina per scopo riabilitativo. With reference to the aforementioned figures, the numeral 4 globally indicates a human-machine interface apparatus for rehabilitation purposes.

Secondo una forma di realizzazione, l’apparato comprende almeno un sensore 8 adatto ad essere applicato sulla testa di un paziente e a recepire l’emissione di onde cerebrali da parte del paziente. According to an embodiment, the apparatus comprises at least one sensor 8 suitable for being applied to the head of a patient and for receiving the emission of brain waves from the patient.

L’apparato 4 comprende inoltre almeno una interfaccia 12 (BCI) munita di una unità di elaborazione 14. The apparatus 4 also comprises at least one interface 12 (BCI) equipped with a processing unit 14.

Preferibilmente, all’interfaccia 12 à ̈ associato un display o video 16 sul quale sono rappresentate alcune azioni o target 18 del paziente, come ad esempio il desiderio di mangiare (figure 2-3). E’ evidente che à ̈ possibile rappresentare sul display 16 qualsiasi altra azione o desiderio, non necessariamente legata a bisogni primari del paziente. Preferably, interface 12 is associated with a display or video 16 on which some actions or targets 18 of the patient are represented, such as for example the desire to eat (Figures 2-3). It is evident that it is possible to represent on the display 16 any other action or desire, not necessarily linked to the primary needs of the patient.

Sul display 16 dell’interfaccia 12 à ̈ presente preferibilmente un cursore che si muove secondo la scelta del paziente. Il cursore 20 à ̈ ad esempio rappresentato sotto forma di un pallino (figure 2-3). In altre parole le quattro frecce 21 nelle quattro direzioni cardinali si accendono alternativamente in maniera casuale. Quando il paziente riconosce che si accende la freccia che corrisponde alla sua intenzione di movimento si genera il segnale cerebrale riconosciuto dalla BCI. A questo punto viene mosso il cursore 20 nella direzione identificata dalla BCI. On the display 16 of the interface 12 there is preferably a cursor that moves according to the choice of the patient. The cursor 20 is for example represented in the form of a dot (figures 2-3). In other words, the four arrows 21 in the four cardinal directions light up alternately in a random manner. When the patient recognizes that the arrow corresponding to his intention to move lights up, the brain signal recognized by the BCI is generated. At this point the cursor 20 is moved in the direction identified by the BCI.

Secondo una forma di realizzazione, l’interfaccia comprende anche mezzi di riproduzione sonora 24, quali ad esempio delle casse acustiche, adatti a riprodurre e riportare al paziente i segnali sonori provenienti dall’ambiente circostante o esterno, come esplicitato nel seguito. According to an embodiment, the interface also comprises sound reproduction means 24, such as for example loudspeakers, suitable for reproducing and returning to the patient the sound signals coming from the surrounding or external environment, as explained below.

L’apparato 4 comprende inoltre almeno un robot 28, preferibilmente di tipo olonomo. The apparatus 4 further comprises at least one robot 28, preferably of the holonomic type.

Vantaggiosamente, detto robot à ̈ munito di mezzi di movimentazione 32 propri, ossia di mezzi motori 32 in grado di consentire lo spostamento del robot stesso, sotto la guida e il controllo dell’interfaccia 12. Advantageously, said robot is equipped with its own handling means 32, ie with motor means 32 capable of allowing the robot to be moved, under the guidance and control of the interface 12.

Secondo una forma di realizzazione preferita, il robot olonomo presenta una struttura esagonale provvista di ruote omnidirezionali, preferibilmente tre ruote omnidirezionali. According to a preferred embodiment, the holonomic robot has a hexagonal structure provided with omnidirectional wheels, preferably three omnidirectional wheels.

Grazie a questa configurazione, il robot 28 ha la possibilità di raggiungere qualsiasi posizione sul piano senza dover cambiare la propria angolazione. Il controllo dell’odometria avviene preferibilmente in tempo reale in modo da consentire il riconoscimento della posizione del robot 28 in qualsiasi momento. Thanks to this configuration, the robot 28 has the possibility to reach any position on the surface without having to change its angle. The odometry control is preferably carried out in real time so as to allow the recognition of the position of the robot 28 at any time.

Vantaggiosamente, detto robot 28 à ̈ munito di mezzi sensoriali 36 adatti a riprodurre i sensi quali vista e udito inviando tali sensazioni direttamente all’utente, tramite l’interfaccia 12. Advantageously, said robot 28 is equipped with sensory means 36 suitable for reproducing the senses such as sight and hearing by sending these sensations directly to the user, through the interface 12.

Secondo una forma di realizzazione tali mezzi sensoriali 36 comprendono una telecamera 40, per riprendere scenari e situazioni, e/o un microfono 44 per captare e trasmettere i suoni di ambienti. According to an embodiment, these sensory means 36 comprise a video camera 40, for filming scenarios and situations, and / or a microphone 44 for picking up and transmitting the sounds of environments.

Secondo una forma di realizzazione preferita, i mezzi sensoriali 36 comprendono una telecamera 40 omnidirezionale che permette quindi una visione a 360 gradi. Tale telecamera 40 permette quindi di riprodurre una immagine circolare che riesce a coprire tutto lo spazio attorno al robot 28. According to a preferred embodiment, the sensory means 36 comprise an omnidirectional camera 40 which therefore allows a 360-degree view. Said camera 40 therefore allows to reproduce a circular image which is able to cover all the space around the robot 28.

Tale immagine à ̈ inviata, preferibilmente con un collegamento senza fili †̃wireless’ all’unità di elaborazione 14 dell’interfaccia 12 (BCI). This image is sent, preferably via a wireless â € wirelessâ € ™ connection to the processing unit 14 of the interface 12 (BCI).

Preferibilmente, l’immagine proveniente dal robot 28 viene sovrapposta alla rappresentazione grafica del display 16, nel modo meno deleterio possibile per la concentrazione del paziente. Preferably, the image coming from the robot 28 is superimposed on the graphic representation of the display 16, in the least deleterious way possible for the patient's concentration.

In altre parole il robot 28, e la telecamera 40 da questo supportata, à ̈ quasi sempre fermo e si muove in accordo con il cursore 20 sullo schermo 16; in questo modo i momenti in cui l’immagine à ̈ in movimento sono limitati nel tempo e quindi non si inficia la concentrazione del soggetto. In other words, the robot 28, and the camera 40 supported by it, is almost always stationary and moves in accordance with the cursor 20 on the screen 16; in this way the moments in which the image is in motion are limited in time and therefore the concentration of the subject is not affected.

Secondo una possibile forma di realizzazione, à ̈ previsto scollegare l’acquisizione dell’interfaccia 12, ossia dei segnali cerebrali, durante il movimento del robot 28. According to a possible embodiment, it is envisaged to disconnect the acquisition of the interface 12, ie of the cerebral signals, during the movement of the robot 28.

Secondo una forma di realizzazione, man mano che il robot 28 si avvicina ad un target 18, quest’ultimo rappresentato sullo schermo 16, si ingrandisce (figura 3). According to an embodiment, as the robot 28 approaches a target 18, the latter represented on the screen 16, it enlarges (Figure 3).

In questo modo il paziente riceve un feedback sulla scelta operata. In this way the patient receives feedback on the choice made.

Vantaggiosamente i mezzi sensoriali 36 del robot 28 sono operativamente connessi all’interfaccia 12, in modo da trasmettere le sensazioni acquisite dall’ambiente direttamente verso il paziente. Advantageously, the sensory means 36 of the robot 28 are operationally connected to the interface 12, so as to transmit the sensations acquired from the environment directly to the patient.

In questo modo, il paziente riesce ad avvertire il concetto di telepresenza e a proiettarsi virtualmente, ma in maniera †̃coinvolgente’, nell’ambiente circostante. In this way, the patient is able to perceive the concept of telepresence and to project himself virtually, but in an "involving" way, into the surrounding environment.

Verrà ora descritto il funzionamento dell’apparato secondo l’invenzione secondo alcune possibile forme di realizzazione. The operation of the apparatus according to the invention according to some possible embodiments will now be described.

Preliminarmente si forniscono alcuni dettagli relativamente alla tipologia di un robot 28 utilizzato effettivamente in alcune prove sperimentali. Preliminarily, some details are provided regarding the type of robot 28 actually used in some experimental tests.

In particolare, à ̈ possibile utilizzare un robot 28 olonomo, preferibilmente con una struttura esagonale provvisto di tre ruote omnidirezionali. In questo modo il robot 28 ha la possibilità di raggiungere qualsiasi posizione sul piano senza dover cambiare la propria angolazione. In particular, it is possible to use a holonomic robot 28, preferably with a hexagonal structure provided with three omnidirectional wheels. In this way the robot 28 has the possibility to reach any position on the surface without having to change its angle.

Questa soluzione facilita sia l’integrazione con il display 16 usato dall’interfaccia 12 che si basa sul movimento di una figura circolare sullo schermo stesso, sia evita di far pesare sul paziente il compito di dover comandare la rotazione del robot 28 sul proprio asse. This solution facilitates both the integration with the display 16 used by the interface 12 which is based on the movement of a circular figure on the screen itself, and avoids the burden on the patient of having to control the rotation of the robot 28 on his own axis.

Il controllo dell’odometria à ̈ affidato a una scheda motori collegata al computer di bordo attraverso la porta seriale. Secondo una forma di realizzazione, sul robot 28 à ̈ montato un mini computer, ad esempio con architettura PC104. Essendo l’unità di massa montata su un supporto mobile, à ̈ preferibile utilizzare una Compact Flash al posto di un hard disk tradizionale. La scheda madre à ̈ inoltre preferibilmente dotata di una porta ethernet integrata. Sono stati aggiunti dei moduli alla scheda madre, quali un framegrubber per l’acquisizione video, un modulo audio e un modulo PCMCI per la scheda Wireless. Il robot 28 à ̈ inoltre fornito di una telecamera 40 omnidirezionale dotata di uno specchio iperbolico. Odometry control is entrusted to an engine card connected to the on-board computer through the serial port. According to one embodiment, a mini computer is mounted on the robot 28, for example with PC104 architecture. Since the mass unit is mounted on a mobile support, it is preferable to use a Compact Flash instead of a traditional hard disk. The motherboard is also preferably equipped with an integrated ethernet port. Modules have been added to the motherboard, such as a framegrubber for video capture, an audio module and a PCMCI module for the Wireless card. The robot 28 is also equipped with an omnidirectional camera 40 equipped with a hyperbolic mirror.

Il sistema di movimento si basa su scrittura/lettura ciclica dell’istruzione sulla scheda motori, attraverso la porta seriale. In questo modo il robot 28 può controllare l’odometria dei mezzi motori 32 quasi in tempo reale e conoscere in qualsiasi momento la propria posizione nell’ambiente. Parallelamente vengono inviati via collegamento TCP-IP i frame acquisiti dalla telecamera 40 al display 16. The movement system is based on cyclical writing / reading of the instruction on the motor card, through the serial port. In this way the robot 28 can check the odometry of the motor vehicles 32 almost in real time and know its position in the environment at any time. At the same time, the frames acquired by the camera 40 are sent via the TCP-IP connection to the display 16.

L’interfaccia 12 utilizzata prevede un movimento a step dell’attuatore o robot 28 fino al raggiungimento del target 18 desiderato. The interface 12 used provides for a step-by-step movement of the actuator or robot 28 until the desired target 18 is reached.

Si tratta di una tipologia di movimento in un ambiente prestabilito le cui caratteristiche sono diverse da un movimento che si può realizzare in uno spazio libero. Volendo configurare il robot 28 come un attuatore fisico speculare all’attuatore virtuale presente sullo schermo 16, anch’esso dovrà replicare fedelmente questa tipologia di movimento step by step fino al raggiungimento del target 18. Il dover confermare la propria scelta per un numero predefinito di volte, permette al paziente di avere un controllo maggiore sull’attuatore 28 in modo da raggiungere proprio il target 18 voluto. It is a type of movement in a pre-established environment whose characteristics are different from a movement that can be carried out in a free space. Wanting to configure robot 28 as a physical actuator mirroring the virtual actuator present on screen 16, it too must faithfully replicate this type of movement step by step until target 18 is reached. Having to confirm your choice for a number preset of times, it allows the patient to have greater control over the actuator 28 in order to reach the desired target 18.

In alternativa, se à ̈ interesse invece usare il robot 28 in uno spazio non predeterminato, con un movimento libero, la soluzione à ̈ quella di lasciare al paziente il compito di dirigere il robot 28 verso la meta desiderata tramite i comandi di alto livello “dritto†, “a destra†, “a sinistra†, “indietro†che corrispondono alle quattro direzioni cardinali dell’interfaccia 16 . Alternatively, if it is of interest to use the robot 28 in an undetermined space, with a free movement, the solution is to leave the patient with the task of directing the robot 28 towards the desired goal through the high-level commands â € œrightâ €, â € œto the rightâ €, â € œto the leftâ €, â € œbackwardsâ € which correspond to the four cardinal directions of interface 16.

In questo tipo di utilizzo del robot 28 con l’interfaccia 12 vanno a collocarsi tutti i moduli aggiuntivi che permettono la telepresenza del paziente. In this type of use of the robot 28 with the interface 12 all the additional modules that allow the telepresence of the patient are placed.

In primis la telecamera 40 omnidirezionale, la quale tramite un’opportuna elaborazione di immagine può fornire un’immagine non distorta di ciò che il robot 28 vede. First of all, the omnidirectional camera 40, which through an appropriate image processing can provide an undistorted image of what the robot 28 sees.

Questa immagine à ̈ integrata con il display 16 dell’interfaccia 12 e permette al paziente di controllare il robot 28 a distanza, di guardare ciò che accade in altre stanze e di riconoscere eventuali persone fuori dal proprio raggio visivo. This image is integrated with the display 16 of the interface 12 and allows the patient to control the robot 28 remotely, to watch what is happening in other rooms and to recognize any people out of sight.

Il microfono 44 e le casse presenti sul robot aggiungono altre importanti features alla telepresenza del paziente. The microphone 44 and the speakers on the robot add other important features to the patient's telepresence.

Secondo una forma di realizzazione, l’interazione fra robot 28 e interfaccia 12 si basa su un sistema Client-Server mediante un collegamento TCP-IP fra i due. According to an embodiment, the interaction between robot 28 and interface 12 is based on a Client-Server system by means of a TCP-IP connection between the two.

Questo permette di controllare il robot e di riceverne le percezioni anche attraverso una rete TCP-IP quale Internet. In questo modo il robot può anche non essere nella stessa stanza o nello stesso edificio in cui si trova il paziente, ma può trovarsi in un qualsiasi punto del mondo in cui sia predisposto un collegamento Internet. L’utilizzo di uno standard come il TCP-IP permette al paziente di collegarsi anche ad altri robot connessi ad Internet (inviando comandi e ricevendo percezioni) purché questi siano provvisti dell’opportuno protocollo di comunicazione definito più sotto. This allows you to control the robot and receive its perceptions even through a TCP-IP network such as the Internet. In this way the robot may not even be in the same room or building as the patient, but it may be anywhere in the world where an Internet connection is set up. The use of a standard such as TCP-IP allows the patient to connect to other robots connected to the Internet (sending commands and receiving perceptions) as long as these are equipped with the appropriate communication protocol defined below.

L’unità di elaborazione 14 su cui à ̈ presente la BCI 12 funge da server mentre il robot 28 da client. The processing unit 14 on which the BCI 12 is present acts as a server while the robot 28 as a client.

Dopo ogni stimolo dell’interfaccia il segnale acquisito e elaborato dalla BCI viene convertito in un comando da inviare al robot 28 il quale una volta eseguito risponde al server con l’esito dell’azione. In questo modo esiste un collegamento biunivoco fra client e server, ossia fra robot 28 e BCI 12, che permette all’attuatore di replicare fedelmente i comandi originariamente inviati dal paziente. After each stimulus of the interface, the signal acquired and processed by the BCI is converted into a command to be sent to the robot 28 which, once executed, responds to the server with the outcome of the action. In this way there is a two-way connection between client and server, ie between robot 28 and BCI 12, which allows the actuator to faithfully replicate the commands originally sent by the patient.

Sia il client che il server si basano preferibilmente su una macchina a stati finiti. Le due macchine interconnesse fra loro si scambiano comandi e informazioni relative al movimento per tutta la durata della sessione. Preferibilmente, Ã ̈ possibile stabilire un protocollo ad hoc per lo scambio di dati fra BCI 12 e robot 28. Both the client and the server preferably rely on a finite state machine. The two machines interconnected with each other exchange commands and information relating to movement for the duration of the session. Preferably, it is possible to establish an ad hoc protocol for exchanging data between BCI 12 and robot 28.

Tale protocollo à ̈ ad esempio asimmetrico fra client e server. Il server invia una stringa di dati lunga 5 bytes, mentre il client risponde sempre con un solo byte. This protocol is for example asymmetric between client and server. The server sends a data string 5 bytes long, while the client always replies with a single byte.

La stringa inviata dal server à ̈ così determinata: - Byte Carattere Significato The string sent by the server is determined as follows: - Byte Character Meaning

- 1 S Carattere di Start - 1 S Start character

- 2 X Id interfaccia - 2 X Interface Id

- 3 X Direzione (1,2,3,4) - 3 X Direction (1,2,3,4)

- 4 X Go/Stop - 4 X Go / Stop

- 5 E Carattere di End - 5 E End character

I comandi validi inviati dal client sono ad esempio: - A Il robot à ̈ pronto e posizionato Valid commands sent by the client are for example: - A The robot is ready and positioned

- R Il comando era corretto ed à ̈ stato eseguito - N Il comando era corretto ma non à ̈ stato eseguito - X Il comando non era corretto - R The command was correct and was executed - N The command was correct but was not executed - X The command was incorrect

- C Il robot chiude la connessione - C The robot closes the connection

La correttezza del dato ricevuto viene affidata sia al protocollo TCP sia a un controllo interno del client. The correctness of the data received is entrusted both to the TCP protocol and to an internal control of the client.

Prima di processare il comando, il client si occupa di verificarne la validità. Esegue un controllo sulla lunghezza della stringa ricevuta (5 caratteri), sulla correttezza del primo e dell’ultimo carattere (codificati rispettivamente come “S“ e “E“) e sul tipo di comando ricevuto. In questo modo si garantisce una completa affidabilità del protocollo. Il collegamento fisico fra BCI 12 e computer 14 avviene preferibilmente attraverso una VPN (Virtual Private Network). Essa permette di collegare due soggetti che utilizzano un sistema di trasmissione pubblico come internet. La rete VPN utilizza un metodo di autenticazione e di crittografia in modo che i dati inviati non siano intercettati da utenti non autorizzati. Before processing the command, the client takes care of verifying its validity. It checks the length of the string received (5 characters), the correctness of the first and last characters (encoded respectively as â € œSâ € œ and â € œEâ € œ) and the type of command received. In this way a complete reliability of the protocol is guaranteed. The physical connection between BCI 12 and computer 14 preferably takes place via a VPN (Virtual Private Network). It allows you to connect two parties using a public transmission system such as the internet. The VPN network uses an authentication and encryption method so that the data sent is not intercepted by unauthorized users.

In questo modo risulta altamente improbabile che qualcuno riesca dall’esterno a collegarsi al robot 28 garantendo un altissimo livello di sicurezza sia per il paziente sia per le strutture in cui il robot 28 agisce. In this way it is highly unlikely that someone from the outside will be able to connect to the robot 28, guaranteeing a very high level of safety both for the patient and for the structures in which the robot 28 operates.

Il programma lato client presente sul robot 28 basa il proprio funzionamento su una macchina a stati finiti. Gli stati sono adibiti alle diverse funzioni di movimento e al dialogo con il server. Quando il programma client viene caricato, à ̈ suo compito cercare di connettersi al server. Una volta connesso il robot 28 si pone in una fase di ascolto, finché il server non invia il comando di inizio sessione. Una volta inviato questo comando il paziente si trova a controllare direttamente il robot 28. The client-side program present on the robot 28 bases its operation on a finite state machine. The states are used for the various movement functions and for dialogue with the server. When the client program loads, it is its job to try to connect to the server. Once connected, the robot 28 goes into a listening phase, until the server sends the session start command. Once this command has been sent, the patient is in direct control of the robot 28.

Il client una volta iniziata la sessione entra in un ciclo le cui fasi principali sono: Attesa comando − Esecuzione comando − Invio esito azione al server. Once the session has started, the client enters a cycle whose main phases are: Waiting for command ∠’Command execution − Sending action result to the server.

Ogni volta che un comando à ̈ stato eseguito con esito positivo o negativo il robot 28 si pone di nuovo in fase di †̃Attesa comando’, pronto per un nuovo ordine. Il ciclo viene interrotto quando arriva da parte del server il comando di fine sessione. La fase di esecuzione del comando à ̈ divisa a sua volta in tre parti distinte. Inizialmente il client esegue un controllo di integrità sul comando ricevuto, se si tratta di un comando valido si procede con la fase successiva, altrimenti viene inviato al server un avviso e il server stesso si preoccuperà di inviare nuovamente lo stesso comando. In caso di comando valido il client determinerà se si tratta di un comando di movimento, in caso affermativo inizierà a comunicare con la scheda motori. Una volta eseguita l’azione verrà inviato al server l’esito e il client si riporterà di nuovo nella fase di †̃Attesa comando’. L’esecuzione dell’azione da parte del robot avviene con un feedback continuo legato all’odometria dei mezzi motori 32. Il comando inviato dal server attiva il movimento del robot nella direzione desiderata. Preferibilmente, ogni 200 ms il robot 28 controlla attraverso l’odometria dei mezzi motori 32 la distanza percorsa: nel caso il robot 28 abbia percorso una distanza pari allo step predefinito esso si fermerà, in caso contrario continuerà ad avanzare fino al raggiungimento della distanza prestabilita. Each time a command has been executed with a positive or negative outcome, robot 28 goes back to the â € ̃Waiting commandâ € ™ phase, ready for a new order. The cycle is interrupted when the end-of-session command arrives from the server. The execution phase of the command is in turn divided into three distinct parts. Initially the client performs an integrity check on the received command, if it is a valid command proceed to the next step, otherwise a warning is sent to the server and the server itself will take care to send the same command again. If the command is valid, the client will determine if it is a movement command, if so it will start communicating with the motor card. Once the action has been performed, the result will be sent to the server and the client will go back to the â € ̃Waiting for commandâ € ™ phase. The execution of the action by the robot takes place with a continuous feedback linked to the odometry of the motor means 32. The command sent by the server activates the movement of the robot in the desired direction. Preferably, every 200 ms the robot 28 checks the distance traveled by means of the odometry of the motor means 32: if the robot 28 has traveled a distance equal to the predefined step it will stop, otherwise it will continue to advance until the distance is reached pre-established.

Come il programma client anche il server utilizza una macchina a stati finiti. Il server per il collegamento e la gestione del robot 28 à ̈ integrato interamente con il programma della BCI 12. I segnali acquisiti e processati dalla BCI 12 vengono gestiti dal server e inviati sotto forma di comandi al robot 28. Il funzionamento del server può essere identificato con tre fasi principali: invio del comando, attesa esecuzione, ricezione esito azione. La gestione del segnale proveniente dal paziente à ̈ affidata al software della BCI 12. Una volta determinata la presenza o meno di un’onda cerebrale P300, mediante gli appositi sensori, la BCI 12 determina a che direzione di movimento il potenziale cognitivo corrisponde mediante una sincronizzazione con gli stimoli del display 16. Like the client program, the server also uses a finite state machine. The server for connection and management of the robot 28 is fully integrated with the BCI 12 program. The signals acquired and processed by the BCI 12 are managed by the server and sent in the form of commands to the robot 28. The operation of the server can be identified with three main phases: sending the command, waiting for execution, receiving the action result. The management of the signal coming from the patient is entrusted to the BCI 12 software. Once the presence or absence of a P300 brain wave has been determined, using the appropriate sensors, the BCI 12 determines to which direction of movement the cognitive potential corresponds by means of a synchronization with the stimuli of the display 16.

Questo comando direzionale viene inviato al robot 28 con la codifica prestabilita. Il robot 28 eseguirà l’azione e risponderà al server riguardo l’esito. A seconda dell’esito ricevuto il server si terrà pronto per un nuovo comando da inviare oppure invierà nuovamente lo stesso. Quando il programma server viene caricato esso si metterà in ascolto su un determinato indirizzo e su una determinata porta in attesa di una connessione da parte del client. Una volta che il client si à ̈ connesso, si procederà alla fase di invio del comando di inizio sessione. A questo punto il server gestirà e interpreterà le informazioni relative al movimento fornite dal robot 28. Robot 28 e BCI 12 risultano in questo modo connesse in modo biunivoco. Questo sistema permette sia un controllo diretto da parte del paziente del movimento del robot 28 sia una gestione ottimale di eventuali eccezioni dovute a problemi di movimento del robot 28. This directional command is sent to the robot 28 with the predetermined coding. Robot 28 will perform the action and reply to the server about the outcome. Depending on the result received, the server will be ready for a new command to be sent or will send the same again. When the server program is loaded it will listen on a specific address and port, waiting for a connection from the client. Once the client is connected, we will proceed to the phase of sending the session start command. At this point the server will manage and interpret the information relating to the movement provided by the robot 28. Robot 28 and BCI 12 are thus connected in a bi-univocal way. This system allows both a direct control by the patient of the movement of the robot 28 and an optimal management of any exceptions due to movement problems of the robot 28.

Come già descritto, per sviluppare a pieno il concetto di telepresenza del paziente attraverso il robot, à ̈ necessario che il robot 28 sia dotato di altre caratteristiche oltre il movimento. Grazie alle immagini opportunamente elaborate fornite dalla telecamera 40 omnidirezionale presente sul robot, il paziente ha la possibilità di guardare a distanza tutto l’ambiente circostante il robot, potendo quindi avere sia un feedback sul movimento sia una percezione di ciò che avviene in un altro luogo. Parallelamente, ma seguendo lo stesso concetto, il robot 28 à ̈ fornito di almeno un microfono 44 e di altoparlanti collegati alla scheda video. Preferibilmente, anche il display 16 à ̈ munito di altoparlanti 48 in modo da inviare i suoni captati dal microfono 44 del robot direttamente al paziente. As already described, in order to fully develop the concept of patient telepresence through the robot, it is necessary that the robot 28 is equipped with other characteristics besides movement. Thanks to the appropriately processed images provided by the omnidirectional camera 40 present on the robot, the patient has the possibility to look at the entire environment surrounding the robot from a distance, thus being able to have both a feedback on the movement and a perception of what happens in another place. In parallel, but following the same concept, the robot 28 is equipped with at least one microphone 44 and speakers connected to the video card. Preferably, the display 16 is also equipped with speakers 48 so as to send the sounds picked up by the robot microphone 44 directly to the patient.

Il programma che gestisce il passaggio di dati dal robot 28 al computer 14 utilizzato dal paziente à ̈ stato creato appositamente e si basa sullo streaming audio/video. The program that manages the passage of data from the robot 28 to the computer 14 used by the patient was created specifically and is based on audio / video streaming.

L’immagine acquisita tramite la telecamera 40 omnidirezionale viene filtrata con degli algoritmi specifici e modificata in modo da eliminare le distorsioni dovute alla visione a 360 gradi.. The image acquired by the omnidirectional camera 40 is filtered with specific algorithms and modified in order to eliminate the distortions due to the 360 degree vision.

Questa fase di elaborazione viene fatta su ogni frame acquisito dalla telecamera. Una volta processato, il frame viene compresso in formati opportuni, ad esempio in formato MPEG4, per alleggerire il carico sulla rete. This processing phase is carried out on each frame acquired by the camera. Once processed, the frame is compressed into suitable formats, for example in MPEG4 format, to lighten the load on the network.

L’audio viene compresso in formati opportuni, ad esempio MPEG, e inviato insieme alle immagini al computer del paziente. Con l’aggiunta delle features audio e video il paziente risulta dunque avere il totale controllo del robot. The audio is compressed into suitable formats, such as MPEG, and sent together with the images to the patient's computer. With the addition of audio and video features, the patient is therefore in total control of the robot.

Ha la possibilità di muoverlo e di interagire attraverso di esso con altre persone. Questo sistema permette quindi la realizzazione del concetto di telepresenza per un soggetto costretto a letto. It has the ability to move it and interact through it with other people. This system therefore allows the realization of the concept of telepresence for a bedridden subject.

L’integrazione e l’interazione fra BCI e attuatore robotico apre nuove possibilità e nuove strade sia nel campo della neuroriabilitazione sia in quello del miglioramento della vita di pazienti completamente paralizzati. The integration and interaction between BCI and robotic actuator opens up new possibilities and new avenues both in the field of neurorehabilitation and in the improvement of the life of completely paralyzed patients.

Come si può apprezzare da quanto descritto, l’apparato e il metodo secondo l’invenzione consentono di superare gli inconvenienti presentati nella tecnica nota. As can be appreciated from what has been described, the apparatus and the method according to the invention allow to overcome the drawbacks presented in the known art.

In particolare, l’apparato e il metodo consentono al soggetto di raggiungere una sorta di telepresenza, grazie all’ausilio del robot munito di telecamera. In particular, the apparatus and the method allow the subject to reach a sort of telepresence, thanks to the aid of the robot equipped with a camera.

Come sopra illustrato, la telepresenza passa attraverso tre punti chiave che sono l’interazione tra l’interfaccia e l’attuatore, il movimento dell’attuatore e i sensi (mezzi sensoriali) dell’attuatore. As illustrated above, telepresence passes through three key points which are the interaction between the interface and the actuator, the movement of the actuator and the senses (sensory means) of the actuator.

L’interazione fra l’interfaccia e l’attuatore si basa sulla sovrapposizione precisa dell’immagine virtuale che il paziente vede sullo schermo dell’interfaccia con le azioni effettuate dal robot. Quindi il soggetto può interagire con una interfaccia semplificata e adatta alle sue caratteristiche sapendo però allo stesso tempo che ogni azione che avviene sullo schermo sarà replicata fedelmente dal robot in uno spazio fisico. The interaction between the interface and the actuator is based on the precise superimposition of the virtual image that the patient sees on the interface screen with the actions performed by the robot. Therefore the subject can interact with a simplified interface adapted to his characteristics, but at the same time knowing that every action that takes place on the screen will be faithfully replicated by the robot in a physical space.

Il movimento dell’attuatore à ̈ essenziale dal momento che il poter muovere il robot attraverso solo un potenziale cognitivo relativo alla concentrazione permette al soggetto di estraniarsi, almeno in parte, dalla condizione di immobilità e gli dà nuovamente la possibilità dell’azione. The movement of the actuator is essential since being able to move the robot through only a cognitive potential related to concentration allows the subject to be estranged, at least in part, from the condition of immobility and gives him again the possibility of action.

Inoltre, la duplicazione dei sensi tramite il robot, come la vista e l’udito, consentono al paziente di vedere e sentire attraverso il robot stesso e quindi di interagire socialmente ed esternare i propri bisogni. Furthermore, the duplication of the senses through the robot, such as sight and hearing, allow the patient to see and hear through the robot itself and therefore to interact socially and express their needs.

La telepresenza consente al soggetto di superare gli inconvenienti e limitazioni dell’arte nota in termini di neuroriabilitazione ed integrazione sociale del paziente, dal momento che quest’ultimo riesce ad identificarsi con il robot in modo da considerare e percepire il robot come una estensione delle proprie percezioni. Telepresence allows the subject to overcome the drawbacks and limitations of the known art in terms of neurorehabilitation and social integration of the patient, since the latter is able to identify with the robot in order to consider and perceive the robot as an extension of their perceptions.

In altre parole, l’integrazione tra interfaccia e robot garantisce ad un soggetto completamente paralizzato la possibilità di muoversi ad esempio all’interno della propria abitazione, di poter segnalare i propri bisogni e di poter ascoltare, dialogare e vedere altre persone in altre stanze. In other words, the integration between interface and robot guarantees to a completely paralyzed subject the possibility to move, for example, inside his own home, to be able to report his needs and to be able to listen, talk and see other people in others rooms.

La telepresenza permette anche al paziente di uscire dalla propria abitazione e tramite un collegamento in remoto con un robot adibito, visitare ad esempio musei o strutture di altre città. Telepresence also allows the patient to leave their home and, through a remote connection with a robot, visit for example museums or structures in other cities.

Un tecnico del ramo, allo scopo di soddisfare esigenze contingenti e specifiche, potrà apportare numerose modifiche e varianti all’apparato e al metodo sopra descritti, tutte peraltro contenute nell’ambito dell’invenzione quale definito dalle seguenti rivendicazioni. A person skilled in the art, in order to satisfy contingent and specific needs, will be able to make numerous modifications and variations to the apparatus and method described above, all however contained within the scope of the invention as defined by the following claims.

Claims (20)

RIVENDICAZIONI 1. Apparato di interfaccia uomo-macchina per scopo riabilitativo (4), comprendente - almeno un sensore (8) adatto a captare i segnali elettrici generati dall’attività cerebrale di un paziente, - una interfaccia (12) munita di uno schermo (16) che rappresenta almeno un target (18) per il paziente, l’interfaccia (12) essendo operativamente connessa con detto almeno un sensore (8) ed essendo munita di una unità di elaborazione (14), adatta ad interpretare i segnali elettrici cerebrali e a riconoscere i comandi impartiti dal paziente, - un attuatore o robot (28) operativamente connesso a detta interfaccia (12) in modo da risultare azionabile dall’interfaccia (12), caratterizzato dal fatto che - detto robot (28) à ̈ munito di propri mezzi di movimentazione (32) azionabili da detta interfaccia (12) e comprende mezzi sensoriali (36) adatti a captare segnali visivi e sonori dall’ambiente, detti mezzi sensoriali (36) essendo operativamente connessi all’interfaccia (12) in modo da trasmettere i segnali visivi e sonori al paziente, tramite l’interfaccia (12). CLAIMS 1. Man-machine interface apparatus for rehabilitation purposes (4), comprising - at least one sensor (8) suitable for picking up the electrical signals generated by the brain activity of a patient, - an interface (12) equipped with a screen (16) which represents at least one target (18) for the patient, the interface (12) being operatively connected to said at least one sensor (8) and being equipped with a processing (14), suitable for interpreting brain electrical signals and recognizing the commands given by the patient, - an actuator or robot (28) operatively connected to said interface (12) so as to be operable by the interface (12), characterized by the fact that - said robot (28) is equipped with its own handling means (32) which can be operated from said interface (12) and comprises sensory means (36) suitable for picking up visual and sound signals from the environment, said sensory means (36) being operationally connected to the interface (12) in order to transmit the visual and sound signals to the patient, through the interface (12). 2. Apparato (4) secondo la rivendicazione 1, in cui detti mezzi di movimentazione (32) comprendono mezzi motori in grado di consentire lo spostamento del robot (28) sotto la guida e il controllo dell’interfaccia (12). 2. Apparatus (4) according to claim 1, wherein said moving means (32) comprise motor means capable of allowing the movement of the robot (28) under the guidance and control of the interface (12). 3. Apparato (4) secondo la rivendicazione 1 o 2, in cui il robot (28) à ̈ di tipo olonomo e comprende ruote omnidirezionali. Apparatus (4) according to claim 1 or 2, wherein the robot (28) is of the holonomic type and comprises omnidirectional wheels. 4. Apparato (4) secondo la rivendicazione 1, 2 o 3, in cui detta unità di elaborazione (14) effettua in tempo reale il controllo dell’odometria del robot (28) in modo da consentire il riconoscimento della posizione del robot (28) in qualsiasi momento. 4. Apparatus (4) according to claim 1, 2 or 3, in which said processing unit (14) controls the odometry of the robot (28) in real time so as to allow the recognition of the position of the robot ( 28) at any time. 5. Apparato (4) secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi sensoriali (36) comprendono almeno una telecamera (40) operativamente connessa con l’interfaccia (12) in modo da inviare le immagini rilevate dall’ambiente su detto display (16) dell’interfaccia (12). 5. Apparatus (4) according to any one of the preceding claims, wherein said sensory means (36) comprise at least one camera (40) operatively connected with the interface (12) so as to send the images detected from the environment onto called display (16) of the interface (12). 6. Apparato (4) secondo la rivendicazione 5, in cui detta telecamera (40) à ̈ omnidirezionale in modo da permettere una visione a 360 gradi che copre tutto lo spazio attorno al robot (28) e da riprodurre una immagine circolare di tale spazio. 6. Apparatus (4) according to claim 5, wherein said camera (40) is omnidirectional so as to allow a 360-degree view covering all the space around the robot (28) and to reproduce a circular image of this space . 7. Apparato (4) secondo la rivendicazione 5 o 6, in cui detta telecamera (40) à ̈ connessa all’interfaccia (12) e, tramite questa al display (16), mediante una connessione di tipo wireless. 7. Apparatus (4) according to claim 5 or 6, wherein said camera (40) is connected to the interface (12) and, through this, to the display (16), by means of a wireless connection. 8. Apparato (4) secondo una qualsiasi delle rivendicazioni precedenti, in cui detti mezzi sensoriali (36) comprendono almeno un microfono (44) adatto a captare e trasmettere i suoni di ambienti a detta interfaccia (12). Apparatus (4) according to any one of the preceding claims, wherein said sensory means (36) comprise at least one microphone (44) suitable for picking up and transmitting ambient sounds to said interface (12). 9. Apparato (4) secondo la rivendicazione 8, in cui il display (16) à ̈ munito di almeno un altoparlante (48) in modo da inviare i suoni captati dal microfono (44) del robot (28) direttamente al paziente. Apparatus (4) according to claim 8, wherein the display (16) is equipped with at least one loudspeaker (48) so as to send the sounds picked up by the microphone (44) of the robot (28) directly to the patient. 10. Apparato (4) secondo la rivendicazione 8 o 9, in cui detto almeno un microfono (44) à ̈ connesso all’interfaccia (12) mediante una connessione di tipo wireless. Apparatus (4) according to claim 8 or 9, wherein said at least one microphone (44) is connected to the interface (12) by means of a wireless connection. 11. Apparato (4) secondo una qualsiasi delle rivendicazioni precedenti, in cui il display (16) rappresenta una pluralità di azioni o target (18) disposti secondo una disposizione circolare. Apparatus (4) according to any one of the preceding claims, wherein the display (16) represents a plurality of actions or targets (18) arranged in a circular arrangement. 12. Apparato (4) secondo una qualsiasi delle rivendicazioni precedenti, in cui sul display (16) dell’interfaccia (12) à ̈ presente un cursore (20) che si muove in maniera casuale in modo da puntare ciclicamente su detti target (18). Apparatus (4) according to any one of the preceding claims, in which on the display (16) of the interface (12) there is a cursor (20) which moves randomly so as to point cyclically on said targets ( 18). 13. Apparato (4) secondo una qualsiasi delle rivendicazioni precedenti, in cui i target (18) rappresentati sullo schermo (16) si ingrandiscono in funzione della posizione del robot (28) rispetto al target reale, in modo da fornire un feedback al paziente sulla scelta operata. Apparatus (4) according to any one of the preceding claims, in which the targets (18) represented on the screen (16) are enlarged according to the position of the robot (28) with respect to the real target, so as to provide feedback to the patient on the choice made. 14. Metodo di riabilitazione di un paziente mediante un apparato (4) in accordo con una qualsiasi delle rivendicazioni da 1 a 13, comprendente le fasi di: - rilevare tramite almeno un sensore (8) le onde cerebrali di un paziente, - collegare operativamente detti sensori (8) ad una interfaccia (12) munita di una unità di elaborazione (14) e di un display (16) che rappresenta una pluralità di azioni o target (18) per il paziente, - comandare un robot o attuatore (28), operativamente connesso all’interfaccia (12), in base alle richieste del paziente rilevate tramite detti sensori (8), caratterizzato dal fatto che - il metodo comprende la fase di rilevare tramite mezzi sensoriali (36,40,44), associati al robot (28), immagini e/o suoni dell’ambiente circostante al robot (28) ed inviare tali segnali al paziente mediante detta interfaccia (12). Method of rehabilitating a patient by means of an apparatus (4) according to any one of claims 1 to 13, comprising the steps of: - detect the brain waves of a patient using at least one sensor (8), - operatively connect said sensors (8) to an interface (12) equipped with a processing unit (14) and a display (16) which represents a plurality of actions or targets (18) for the patient, - command a robot or actuator (28), operationally connected to the interface (12), based on the patient's requests detected through said sensors (8), characterized by the fact that - the method comprises the step of detecting by sensory means (36,40,44), associated with the robot (28), images and / or sounds of the environment surrounding the robot (28) and sending these signals to the patient through said interface (12). 15. Metodo secondo la rivendicazione 14, comprendente la fase di effettuare in tempo reale il controllo dell’odometria del robot (28), tramite detta unità di elaborazione (14), in modo da consentire il riconoscimento della posizione del robot (28) in qualsiasi momento e da inviare immagini e suoni in tempo reale al paziente. 15. Method according to claim 14, comprising the step of carrying out in real time the control of the odometry of the robot (28), by means of said processing unit (14), so as to allow the recognition of the position of the robot (28) at any time and to send images and sounds in real time to the patient. 16. Metodo secondo la rivendicazione 14 o 15, comprendente la fase di acquisire immagini dell’ambiente circostante al robot (28) mediante una telecamera (40) omnidirezionale, operativamente connessa con l’interfaccia (12), in modo da inviare una immagine circolare dell’ambiente circostante al robot (28) su detto display (16) dell’interfaccia (12). 16. Method according to claim 14 or 15, comprising the step of acquiring images of the environment surrounding the robot (28) by means of an omnidirectional camera (40), operatively connected to the interface (12), so as to send a circular image of the environment surrounding the robot (28) on said interface display (16) (12). 17. Metodo secondo la rivendicazione 14, 15 o 16, comprendente la fase di acquisire i suoni dell’ambiente circostante al robot (28) attraverso almeno un microfono (44), trasmetterli all’interfaccia (12) e riprodurli al paziente mediante almeno un altoparlante (48). 17. Method according to claim 14, 15 or 16, comprising the step of acquiring the sounds of the environment surrounding the robot (28) through at least one microphone (44), transmitting them to the interface (12) and reproducing them to the patient by means of at least one loudspeaker (48). 18. Metodo secondo la rivendicazione 16, comprendente la fase di rappresentare sul display (16) una pluralità di azioni o target (18) disposte secondo una disposizione circolare, detta disposizione essendo sovrapponibile all’immagine circolare inviata al display (16) dalla telecamera (40) omnidirezionale. 18. Method according to claim 16, comprising the step of representing on the display (16) a plurality of actions or targets (18) arranged according to a circular arrangement, said arrangement being superimposable on the circular image sent to the display (16) by the camera (40) omnidirectional. 19. Metodo secondo una qualsiasi delle rivendicazioni da 14 a 18, comprendente la fase di far lampeggiare sul display (16) dell’interfaccia (12) le frecce corrispondenti alle quattro direzioni cardinali (21) in maniera casuale in modo da evidenziare ciclicamente detti target (18). 19. Method according to any one of claims 14 to 18, comprising the step of making the arrows corresponding to the four cardinal directions (21) flash randomly on the display (16) of the interface (12) so as to cyclically highlight said target (18). 20. Metodo secondo una qualsiasi delle rivendicazioni da 14 a 19, comprendente la fase di ingrandire i target (18) rappresentati sullo schermo (16) in funzione della posizione istantanea del robot (28) rispetto al target reale, in modo da fornire un feedback al paziente sulla scelta operata.Method according to any one of claims 14 to 19, comprising the step of enlarging the targets (18) represented on the screen (16) as a function of the instantaneous position of the robot (28) with respect to the real target, so as to provide feedback to the patient about the choice made.
ITPD2008A000261A 2008-09-12 2008-09-12 MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD IT1397094B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ITPD2008A000261A IT1397094B1 (en) 2008-09-12 2008-09-12 MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITPD2008A000261A IT1397094B1 (en) 2008-09-12 2008-09-12 MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD

Publications (2)

Publication Number Publication Date
ITPD20080261A1 true ITPD20080261A1 (en) 2010-03-13
IT1397094B1 IT1397094B1 (en) 2012-12-28

Family

ID=42079050

Family Applications (1)

Application Number Title Priority Date Filing Date
ITPD2008A000261A IT1397094B1 (en) 2008-09-12 2008-09-12 MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD

Country Status (1)

Country Link
IT (1) IT1397094B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129277A1 (en) * 2004-12-10 2006-06-15 Li-Wei Wu Architecture of an embedded internet robot system controlled by brain waves
US20070035617A1 (en) * 2005-08-09 2007-02-15 Samsung Electronics Co., Ltd. Unmanned monitoring system and monitoring method using omni-directional camera
DE102007016802B3 (en) * 2007-04-05 2008-05-15 Miele & Cie. Kg Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129277A1 (en) * 2004-12-10 2006-06-15 Li-Wei Wu Architecture of an embedded internet robot system controlled by brain waves
US20070035617A1 (en) * 2005-08-09 2007-02-15 Samsung Electronics Co., Ltd. Unmanned monitoring system and monitoring method using omni-directional camera
DE102007016802B3 (en) * 2007-04-05 2008-05-15 Miele & Cie. Kg Self-propelled tilling device e.g. robot, navigating method, involves determining driving direction by evaluating determined vectors and by controlling distance to preceding tracks, and forming meander/spiral shaped preset track

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
F.PICCIONE, A.MERICO, L.PIRON, E.MENEGATTI, K.PRIFTIS, M.MARCHETTI, M.CAVINATO: "BCI-driven robot: A pilot project", PROCEEDINGS OF THE NEUROMATH 2007 ADVANCED METHODS FOR THE ESTIMATION OF HUMAN BRAIN ACTIVITY AND CONNECTIVITY, 4 December 2007 (2007-12-04) - 5 December 2007 (2007-12-05), pages 101 - 102, XP002579717 *

Also Published As

Publication number Publication date
IT1397094B1 (en) 2012-12-28

Similar Documents

Publication Publication Date Title
KR102684302B1 (en) Method and apparatus for navigating virtual content displayed by a virtual reality (VR) device
JP6494222B2 (en) Automatic remote detection and haptic conversion system
TWI476633B (en) Tactile communication system
CN113262465A (en) Virtual reality interaction method, equipment and system
CN112400150A (en) Dynamic graphics rendering based on predicted glance landing sites
JP2017151950A (en) Haptic effects conflict avoidance
JPWO2020116233A1 (en) Information processing equipment, information processing methods, and programs
JP2010147529A (en) Information processing system and information processing method
CN109240507A (en) Wearing-on-head type computer is as the secondary monitor inputted with automatic speech recognition and head-tracking
JP2007083013A5 (en)
CN105653020A (en) Time traveling method and apparatus and glasses or helmet using same
JP6564484B1 (en) Same room communication system
CN109257490A (en) Audio-frequency processing method, device, wearable device and storage medium
WO2019116689A1 (en) Information processing device, information processing method, and program
CN109144362A (en) content sharing method and terminal device
CN107077526B (en) Method for linking a mobile operating terminal to a device to be operated
JP6558764B2 (en) Telepresence robot
ITPD20080261A1 (en) MAN INTERFACE SYSTEM - MACHINE FOR REHABILITATION PURPOSE AND REHABILITATION METHOD
KR20170038461A (en) Emotional robot system using a smart device and the method for controlling operation modes
WO2015179466A1 (en) Remote interactive media
CN109361727B (en) Information sharing method and device, storage medium and wearable device
CN111344776B (en) Information processing device, information processing method, and program
CN109240498B (en) Interaction method, device, wearable device and storage medium
US20250205599A1 (en) High fidelity mixed reality system for managing phantom pain
KR101306608B1 (en) Method for providing 3-dimensional display by using smart terminals and robot devices, and 3-dimensional display system using the same