SE534706C2 - Method for video monitoring of an area of behavioral analysis and computer systems for implementing the method - Google Patents
Method for video monitoring of an area of behavioral analysis and computer systems for implementing the method Download PDFInfo
- Publication number
- SE534706C2 SE534706C2 SE1000386A SE1000386A SE534706C2 SE 534706 C2 SE534706 C2 SE 534706C2 SE 1000386 A SE1000386 A SE 1000386A SE 1000386 A SE1000386 A SE 1000386A SE 534706 C2 SE534706 C2 SE 534706C2
- Authority
- SE
- Sweden
- Prior art keywords
- image
- individual
- state variables
- group
- groups
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G06K9/00228—
-
- G06K9/00288—
-
- G06K9/00335—
-
- G06K9/00771—
-
- G06K9/6223—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19613—Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Description
20 25 30 35 534 TÜE 2 sig länge i närheten av folksamlingar utan att göra det som normalt görs i omrâdet, t.ex. handla i ett köpcentrum eller resa iväg fràn en flygplats. Ficktjuvar opererar ofta i par eller tre och tre och metoden kan upptäcka att tre personer konsekvent uppe- håller sig i närheten av varandra utan att vara så nära att de verkar vara i samma sällskap. Metoden kan också upptäcka intressanta händelser indirekt t.ex. genom att ingen vill gå i närheten av en viss person i situationer där människor normalt inte undviker andra. uppfinningen löser det aktuella problemet att videoövervaka ett område och analy- sera händelser i detta och ge olika former av larm och beslutsstöd till en operatör genom att vara utförd på det sätt som framgår av de efterföljande självständiga patentkraven. 20 25 30 35 534 TÜE 2 stay close to crowds for a long time without doing what is normally done in the area, e.g. shop in a mall or travel away from a shopping mall. Pickpockets often operate in pairs or three and three and the method can detect that three people consistently stay close to each other without being so close that they seem to be in the same company. The method can also detect interesting events indirectly e.g. in that no one wants to go near a certain person in situations where people do not normally avoid others. The solution solves the current problem of video surveillance of an area and analyzing events in it and providing various forms of alarms and decision support to an operator by being carried out in the manner set out in the following independent patent claims.
Uppfinningen kommer i det följande att beskrivas med hänvisning till bifogade ritning, där fig. 1 fig. 2 visar ett principschema över ett beteendeanalysfilter i figur 1. visar ett principschema över metoden och Systemet vid uppfinningen använder en eller flera videokameror som levererar en bildsekvens till ett datorsystem. Datorsystemet analyserar videosekvenserna auto- matiskt bild för bild, företrädesvis tidssynkroniserat om flera kameror används.The invention will be described in the following with reference to the accompanying drawing, in which fi g. 1 fi g. 2 shows a schematic diagram of a behavior analysis filter in Figure 1. shows a schematic diagram of the method and The system at the time of use uses one or your camcorders that deliver a picture sequence to a computer system. The computer system analyzes the video sequences automatically frame by frame, preferably time-synchronized if several cameras are used.
Utöver videokameror kan olika individer lokaliseras med andra kända sensorer och systemet kan även använda denna information i sin analys. Analysen förbättras om _ det flnns information om individers grupptillhörighet och definitioner av beteende- klasser som har matats in till systemet av en operatör.In addition to camcorders, different individuals can be located with other known sensors and the system can also use this information in its analysis. The analysis is improved if _ there is information about individuals' group affiliation and definitions of behavior classes that have been entered into the system by an operator.
Resultatet av analysen är en lägesbild över ett område. Den utgör en kontinuerligt uppdaterad, formaliserad beskrivning av de individer som ses av en eller flera videokameror och deras rörelsebeteenden. Resultatet kan presenteras som en beskrivande text med karakteristik av individer, grupper och hela omrâdet och dessutom inbegripa eventuell klasstillhörighet och eventuell anomali. Resultatet kan presenteras för operatören eller skickas vidare till ett annat system för vidare användning. 10 15, 20 25 30 35 534 706 3 En huvudpunkt vid uppfinningen är att analysen sker i tre block. Först analyseras enskilda individer var för sig. Ett viktigt särdrag är att denna individanalys sker i två delar. Först försöker man associera varje observation av en individ med en individ som är känd i en tidigare bild eller, om detta inte gär, anges individen vara en ny individ. För detta ändamål extraherar man och använder värden på de egenskaper som används för att bestämma de tillståndsvariabler som behövs för att kunna utföra associationen. l beroende av vilka tillståndsvariabler man är intresserad av för att kunna analysera eventuell grupptillhörighet och utvecklingen av situationen i hela området extraheras därpå ytterligare egenskaper för de olika individema. När en ny observation har associerats till en tidigare känd individ kan de tillståndsvariabler som karakteriserar individen uppdateras, vilket innefattar olika former av i föregående bild lagrad information om individens tidigare historia. Resultatet av analysen blir en beskrivning av de individer som rör sig i området.The result of the analysis is a situational picture of an area. It is a continuously updated, formalized description of the individuals seen by one or more of your camcorders and their movement behaviors. The result can be presented as a descriptive text with characteristics of individuals, groups and the whole area and also include any class affiliation and any anomaly. The result can be presented to the operator or forwarded to another system for further use. 10 15, 20 25 30 35 534 706 3 A main point in the invention is that the analysis takes place in three blocks. First, individuals are analyzed individually. An important feature is that this individual analysis takes place in two parts. First, one tries to associate each observation of an individual with an individual who is known in a previous image or, if this is not the case, the individual is stated to be a new individual. For this purpose, the properties used are extracted and used to determine the state variables needed to perform the association. Depending on which state variables one is interested in in order to be able to analyze possible group affiliation and the development of the situation in the whole area, additional characteristics for the various individuals are then extracted. When a new observation has been associated with a previously known individual, the state variables that characterize the individual can be updated, which includes various forms of information about the individual's previous history stored in the previous image. The result of the analysis is a description of the individuals moving in the area.
När individanalysen är klar, analyseras grupper av individer utifrån resultatet av individanalysen. Analysen av grupper sker pà samma sätt som för individer med skillnaden att grupper kan detekteras antingen automatiskt genom någon gemen- sam egenskap i form av ett visst värde på en eller flera tillståndsvariabler eller specificeras genom uppräkning av de individer som ingâri gruppen. Uppräkningen görs av en operatör eller en annan del av systemet. Indelningen av individer i grupper behöver inte vara ömsesidigt uteslutande, en individ kan ingå i flera grupper. Resultatet av analysen blir en beskrivning av de grupper som rör sig i omrâdet.When the individual analysis is completed, groups of individuals are analyzed based on the results of the individual analysis. The analysis of groups takes place in the same way as for individuals, with the difference that groups can be detected either automatically by some common property in the form of a certain value of one or tillstånd your state variables or specified by enumerating the individuals who are part of the group. The enumeration is done by an operator or another part of the system. The division of individuals into groups does not have to be mutually exclusive, an individual can be included in your groups. The result of the analysis is a description of the groups moving in the area.
Sist analyseras hela området och ger en lägesbild som bygger på resultatet av individ- och gruppanalys och på egenskaper som extraheras för att karakterisera läget i hela området.Finally, the entire area is analyzed and provides a situation picture based on the results of individual and group analysis and on characteristics that are extracted to characterize the situation in the entire area.
De nämnda tíllstàndsvariablerna är vanligen numeriska, men kan vid presentation tolkas till en beskrivning l ord. Detsamma gäller händelser som kan beskrivas som numeriska förändringar i en eller flera tillståndsvariabler, men kan beskrivas i ord i presentationen. 10 15 20 25 30 534 7GB 4 Varje tillståndsvariabels värde beskrivs av en sannolikhetsfördelning över värde- rummet. På så sätt kan man uttrycka olika grad av säkerhet i bedömningen av vilket värde som gäller. Man kan också ge ett bestämt värde all sannolikhet, vilket är ett sätt att uttrycka att ett specifikt värde gäller.The mentioned variables mentioned are usually numerical, but can be interpreted into a description in words when presented. The same applies to events that can be described as numerical changes in one or fl your state variables, but can be described in words in the presentation. 10 15 20 25 30 534 7GB 4 The value of each state variable is described by a probability distribution over the value space. In this way, one can express different degrees of certainty in the assessment of which value applies. One can also give a certain value all probability, which is a way of expressing that a specific value applies.
Fackmannen förstår att välja tillståndsvariabler utifrân situationen, för att beskriva relevanta egenskaper hos de rörliga objekten. Den som vill studera frågan hänvisas till A. Yilmaz, O. Javed and M. Shah, “Object tracking: a survey,” ACM Computing Surveys, Vol. 38, No. 4, Article 13, Dec. 2006.The person skilled in the art understands to select state variables based on the situation, in order to describe relevant properties of the moving objects. Anyone wishing to study the question is referred to A. Yilmaz, O. Javed and M. Shah, “Object tracking: a survey,” ACM Computing Surveys, Vol. 38, no. 4, Article 13, Dec. 2006.
För en individ år några vanliga exempel på tillståndsvanabler: Position, utseende, kroppsstållning, kroppsligt rörelsemönster och rumslig rörelse, hastighet och rikt- ning. För en grupp år några vanliga exempel på tillståndsvariabler: Individeri gruppen, egenskap och värden som definierar gruppen, position och rumslig rörelse, hastighet och riktning. För hela området är några vanliga exempel på tillstånds- variabler: Antal individer, antal grupper, rumsligt rörelsemönster och lndividanalys. lndividanalys, se lndividanalys i figur 1. består i att hitta, följa och karakterisera individema. l denna analys tas ingen hänsyn till individemas eventuella del i någon grupp. Detektion, extraktion och följning av rörliga objekt är väl bekant för fack- mannen. Den som vill kan studera frågan i t.ex. A. Yilmaz et al. enligt ovan och W.For an individual, there are some common examples of condition variables: Position, appearance, posture, bodily movement pattern and spatial movement, speed and direction. For a group, some common examples of state variables are: Individual group, property and values that they gruppen nier the group, position and spatial motion, velocity and direction. For the whole area, some common examples of state variables are: Number of individuals, number of groups, spatial movement pattern and individual analysis. Individual analysis, see individual analysis in Figure 1. consists of finding, following and characterizing the individuals. In this analysis, no account is taken of the possible part of the individuals in any group. Detection, extraction and tracking of moving objects are well known to those skilled in the art. Anyone who wants can study the issue in e.g. A. Yilmaz et al. as above and W.
Hu, T.Tan, L. Wang and S. Maybank, “A survey on visual surveillance of object motion and behaviours”, IEEE Trans. on systems, man and cybemetics, vol. 34, no. 3, August 2004.Hu, T.Tan, L. Wang and S. Maybank, “A survey on visual surveillance of object motion and behaviors”, IEEE Trans. on systems, man and cybemetics, vol. 34, no. 3, August 2004.
De olika delarna i blocket lndividanalys i figur 1 presenteras i det följande. Analysen görs bild för bild och i två huvuddelar. Den första delen består i detektion, extraktion och följning och ger som resultat att ytterligare observationer associerats med befintliga spår. Spår kan dessutom ha tillkommit och försvunnit. Den andra delen i analysen bestàri att extrahera ytterligare egenskaper och karakterisera tillståndet och händelser för att uppdatera karakterisenngen av individerna. lndata, 1 ifigur 1, är en sekvens av bilder som behandlas en och en. Utdata 2 i figur 1, är spår och karakteriseríng av individema som rör sig i scenen. 10 15 20 25 30 35 534 7GB Detektion skeri blocket D, Detektion av rörliga objekt kan göras Lex. genom att de skiljer sig fràn bakgrunden.The various parts of the block of individual analysis in Figure 1 are presented below. The analysis is done image by image and in two main parts. The first part consists of detection, extraction and tracking and results in further observations being associated with significant traces. Traces may also have been added and disappeared. The second part of the analysis consists of extracting additional characteristics and characterizing the condition and events in order to update the characterization of the individuals. Input data, 1 in Figure 1, is a sequence of images processed one by one. Output 2 in Figure 1, is the trace and characterization of the individuals moving in the scene. 10 15 20 25 30 35 534 7GB Detection skeri block D, Detection of moving objects can be done Lex. in that they differ from the background.
Fackmannen är väl bekant med sådan bakgrundsdetektering. Den intresserade kan studera frågan i K. Kim, T. H. Chalidabhongse, D. Harwood and L. Davis, “Real-time foreground-background segmentation using codebook model”. Real-time imaging, vol. 11, no. 3, pp. 172-185, 2005 och i C. Stauffer and W. E. L. Grimson, “Learning patterns of activity using real-time tracking”. IEEE Trans. on pattern analysis and machine intelligence, voi. 22, no. 8, August 2000.Those skilled in the art are well acquainted with such background detection. Those interested can study the question in K. Kim, T. H. Chalidabhongse, D. Harwood and L. Davis, “Real-time foreground-background segmentation using codebook model”. Real-time imaging, vol. 11, no. 3, pp. 172-185, 2005 and in C. Stauffer and W. E. L. Grimson, “Learning patterns of activity using real-time tracking”. IEEE Trans. on pattern analysis and machine intelligence, voi. 22, no. 8, August 2000.
Varje observation av ett objekt (eller en dei av ett objekt eller flera objekt) är ett sammanhängande område i bilden som pekas ut med en siluett eller på annat sätt.Each observation of an object (or a dei of an object or objekt your objects) is a coherent area of the image that is pointed out with a silhouette or otherwise.
Detektionen görs för varje sensor för sig och flera olika algoritmer kan användas för varje sensor. Detektionsmodulen tar fram ett antal hypoteser för var rörliga objekt kan finnas i aktuell bild.The detection is done for each sensor separately and olika your different algorithms can be used for each sensor. The detection module produces a number of hypotheses for where moving objects can be found in the current image.
Extraktion av egenskaper sker i blocket X., Extraktion av egenskaper som behövs för föijningen som tex. position, utseende och form. Extraktionen kan se olika ut beroende pá vilken detektionsalgoritm som använts. Resultatet måste vara jämförbart med resultat frán övriga extraktíons- moduler i följningsmodulen.Extraction of properties takes place in block X., Extraction of properties needed for the addition such as. position, appearance and shape. The extraction may look different depending on the detection algorithm used. The result must be comparable with the result from the other extraction modules in the tracking module.
Följning (tracking) sker i blocket T., Varje observation av ett rörligt objekt associeras med en individ (objektspår). i många fall är det en en till en korrespondens mellan observationer och kända individer men det kan hända både att en individ beskrivs av flera observationer och att flera individer beskrivs av en observation. individer kan skapas och försvinna. En individ som inte observerats pà en längre tid eller som man vet inte kommer att äter- komma tas bort. En observation som inte kan associeras till en existerande individ leder till födelse av en ny individ. individen är i någon mening preliminär tills flera observationer har gjorts. i Extraktion av ytterligare egenskaper sker i blocket X, Extraktion av ytterligare egenskaper kan göras när detektionen är associerad med en känd individ. Förändringar över tiden extraheras om individen innehåller data om tidigare observationer. Om individen är kiassificerad kan egenskaper relaterade till 10 15 20 25 30 35 534 706 6 klassen extraheras, tex. antal hjul om det är ett fordon eller längd på personer. För personer extraheras t.ex. egenskaper som beskriver kroppslig rörelse.Tracking takes place in block T. Each observation of a moving object is associated with an individual (object track). in many cases it is a one to one correspondence between observations and known individuals, but it can happen both that an individual is described by fl your observations and that fl your individuals are described by an observation. individuals can be created and disappear. An individual who has not been observed for a long time or who is known not to return will be removed. An observation that cannot be associated with an existing individual leads to the birth of a new individual. the individual is in some sense preliminary until fl your observations have been made. Extraction of additional properties takes place in block X. Extraction of additional properties can be done when the detection is associated with a known individual. Changes over time are extracted if the individual contains data on previous observations. If the individual is classified, traits related to the class can be extracted, e.g. number of wheels if it is a vehicle or length of persons. For people, e.g. characteristics that describe bodily movement.
Individuell beteendeanalys sker i blocket IBF I lBF, Individuellt beteendefilter (individual behavioural filter), uppdateras individens egenskaper med ytterligare en observation. Klassificering och anomalidetektion görs för att detektera oönskade och ovanliga händelser.Individual behavior analysis takes place in the block IBF In lBF, Individual behavioral alter (individual behavioral alter), the individual's characteristics are updated with another observation. Classification and anomaly detection are done to detect unwanted and unusual events.
Resultatet från individanalysen år att objekten som rör sig i området detekteras och följs så det går att se hur objekten rör sig i scenen. Objektens beteende karakteriseras kontinuerligt så att larrn kan ges vid på förhand definierade händelser och vid anomalier.The result from the individual analysis is that the objects that move in the area are detected and followed so it is possible to see how the objects move in the scene. The behavior of the objects is continuously characterized so that the alarm can be given for predefined events and for anomalies.
Gruppanalys består i att hitta, följa och karakterisera grupper av individer. En grupp definieras genom uppräkning av individer eller genom någon gemensam värde på någon egenskap. Vilka egenskaper som utgör grund för gruppindelning kan dels bestämmas av operatören dels genom analys av individerna.Group analysis consists of finding, following and characterizing groups of individuals. A group is defined by enumerating individuals or by some common value of some trait. The characteristics that form the basis for group division can be determined partly by the operator and partly by analysis of the individuals.
De olika delama i blocket Gruppanalys lfigur 1 presenteras i det följande. Analysen sker på liknande sätt som analysen av individer. lndata till blocket är data från individanalysen och resultatet är att ytterligare observationer kan associeras med spàr av grupperna. Spår av grupper kan tillkomma och försvinna. lndata kan också vara användardefinierade grupper som isåfall måste matas in till systemet vid sidan av analysen av bilder.The various parts of the group analysis block layer 1 are presented in the following. The analysis takes place in a similar way as the analysis of individuals. The input data to the block are data from the individual analysis and the result is that further observations can be associated with traces of the groups. Traces of groups may appear and disappear. Input data can also be user-defined groups which in that case must be entered into the system in addition to the analysis of images.
Detektion av grupper sker i blocket D, Grupper kan specificeras genom att en operatör eller nàgot annat system räknar upp individema som ingår i varje grupp. l detta fall är detektion av individer som ingår i gruppen trivial. Grupper kan också specificeras genom någon gemensam egenskap som ges av en operatör eller något annat system eller så kan detektions- modulen automatiskt hitta grupper av individer med liknande egenskaper. Grupper behöver inte vara ömsesidigt uteslutande utan en individ kan ingå i flera grupper.Detection of groups takes place in block D. Groups can be specified by an operator or some other system listing the individuals included in each group. In this case, detection of individuals included in the group is trivial. Groups can also be specified by a common property provided by an operator or other system, or the detection module can automatically find groups of individuals with similar properties. Groups do not have to be mutually exclusive, but an individual can be part of several groups.
Extraktion av gruppens egenskaper sker i blocket X9 När en grupp identifierats så extraheras de egenskaper för gruppen, som behövs för att associera gruppen till en av de kända gruppema. 10 15 20 25 30 35 534 7GB Följning (tracking) sker i blocket T, Varje observation av en grupp associeras tili en känd grupp alternativt skapas en ny QFUPP- Extraktion av ytterligare egenskaper sker i blocket Xh När det nu finns ytterligare en observation avseende gruppen så kan de gruppegen- skaper extraheras som år intressanta och som behövs för karakterisering av gruppen och dess beteende.Extraction of the group's properties takes place in block X9. Once a group has been identified, the properties of the group that are needed to associate the group with one of the known groups are extracted. 10 15 20 25 30 35 534 7GB Tracking takes place in block T, Each observation of a group is associated with a known group or a new QFUPP is created. Extraction of additional properties takes place in block Xh When there is now another observation regarding the group then the group characteristics that are interesting and needed for characterization of the group and its behavior can be extracted.
Gruppbeteendeanalys sker i blocket GBF I GBF, Gruppbeteendefilter (group behavioural filter), uppdateras gruppens egen- skaper med ytterligare en observation. Oönskade och ovanliga beteenden hos gruppen detekteras.Group behavior analysis takes place in the block GBF In GBF, Group behavioral alter (group behavioral alter), the group's characteristics are updated with another observation. Unwanted and unusual behaviors of the group are detected.
Resultatet från gruppanalysen är att grupper i omrâdet följs och deras beteende karakteriseras kontinuerligt så att larm kan ges vid fördefinierade händelser och anomalier. Metoden analyserar även de individer som rör sig i scenen för att hitta eventuella grupper som kan vara individer som har ett gemensamt màl, individer som har liknande beteende eller individer som ser lika ut m.m.The result of the group analysis is that groups in the area are followed and their behavior is characterized continuously so that alarms can be given in the event of events and anomalies. The method also analyzes the individuals who move in the scene to find any groups that may be individuals who have a common goal, individuals who have similar behavior or individuals who look alike, etc.
Utifrån individ- och gruppanalys och övrig information om hela området sker en analys av hela området. De olika delama i blocket Scenanalys, se figur 1, presen- teras i det följande. lndata är utdata från individ- och gruppanalysen. Detta block är analogt med andra delen i individ- och gruppanalys blocken, första extraheras egen- skaper som beskriver hela området - scenen - och sedan uppdateras tillstånds- variablerna som beskriver scenen.Based on individual and group analysis and other information about the entire area, an analysis of the entire area takes place. The various parts of the Stage Analysis block, see Figure 1, are presented below. lndata is output from the individual and group analysis. This block is analogous to the second part of the individual and group analysis blocks, first properties that describe the whole area - the scene - are extracted and then the state variables that describe the scene are updated.
Extraktion av egenskaper för hela området X, När tillståndsvariabler för individer och grupper har uppdaterats kan egenskaper för hela området som är intressanta och som behövs för att karakterisera läget i omrâdet extraheras.Extraction of properties for the whole area X, When state variables for individuals and groups have been updated, properties for the whole area that are interesting and needed to characterize the situation in the area can be extracted.
Beteendeanalys över hela området sker i blocket SBF I SBF, Beteendefilter för scen (scene behavioural filter), uppdateras egenskaper för hela området. 10 15 20 25 30 35 534 706 Resultatet av analysen av hela området år en lägesbild som år skapad utifrån de individer som rört sig i området och karakterlserlngen av deras beteende och analysen av eventuella grupper och deras beteende. Lägesbilden skulle tex. kunna säga om det finns flera grupper som beter sig hotfullt mot andra eller varandra eller om det bara år enstaka individer som beter sig misstänkt.Behavior analysis over the entire area takes place in the block SBF In SBF, Behavioral alter for scene (scene behavioral alter), properties for the entire area are updated. 10 15 20 25 30 35 534 706 The result of the analysis of the whole area is a situation that is created based on the individuals who move in the area and the characterization of their behavior and the analysis of any groups and their behavior. The situation picture would e.g. be able to tell if it is your groups that behave threateningly towards others or each other or if it is only individual individuals who behave suspiciously.
De tre filtren (för individ, grupp och hela området) som används vid beteendeanalys har samma uppbyggnad med fyra komponenter vardera, se figur 2. Innehållet i de tre filtren skiljer sig. Varje filter har en metod som beräknar aktuellt tillstånd utifrån nya observationer och aktuell tid och en metod som predikterar aktuellt tillstånd vid en tidpunkt efter senaste observationen. Det finns en metod som klassificerar aktuellt tillstånd i antingen på förhand givna klasser eller i klasser som ges av aktuella och tidigare data och en metod som detekterar anomalíeri aktuellt tillstànd genom att föra statistik över hur ofta olika tillstànd förekommer. Den forsta delen kan tex. göras med ett Kalman-filter som måste innehålla prediktion av nästa mät- vårde, uppdatering av tillståndet och avståndsberäkning mellan två tillstånd.The three filters (for individual, group and the whole area) used in behavioral analysis have the same structure with four components each, see figure 2. The content of the three filters differs. Each filter has a method that calculates the current state based on new observations and current time and a method that predicts the current state at a time after the last observation. There is a method that classifies the current state in either predefined classes or in classes given by current and previous data and a method that detects anomalies of the current state by keeping statistics on how often different states occur. The first part can e.g. be done with a Kalman filter that must contain prediction of the next measurement care, update of the condition and distance calculation between two conditions.
De olika delama i ett beteendefilter presenteras i det följande. Filtret innehåller två databaser, en med beskrivning av egenskapsklasser, 5 i figur 2. vilka kan vara estimerade från data eller givna utifrån av användaren. Den andra databasen, 6 i figur 2, innehåller en beskrivning av normalvården för att kunna detektera awikelser från sådana normalvärden. Beskrivningen av normalvärden estimeras kontinuerligt från aktuella data.The various parts of a behavioral filter are presented below. The filter contains two databases, one with a description of property classes, 5 in Figure 2. which can be estimated from data or given from the outside by the user. The second database, 6 in Figure 2, contains a description of normal care in order to be able to detect deviations from such normal values. The description of normal values is estimated continuously from current data.
Prediktion sker i blocket P Aktuellt tillstånd år en funktion av tiden och av alla eller en del av inkomna sensor- data. l många fall ändrar sig tillståndet med tiden och om man vill ha aktuellt värde en tid efter senaste observationen så bör aktuellt värde predikteras utifrån tidigare data och aktuell tid.Prediction takes place in block P The current state is a function of time and of all or part of the received sensor data. In many cases, the condition changes with time and if you want the current value some time after the last observation, the current value should be predicted based on previous data and current time.
Uppdatering av tillstånd sker i blocket T Den andra delen i filtret består i att karakterisera aktuellt tillstånd i termer av dyna- miskt eller deterministiskt på förhand givna klasser. Klassema kan göras i termer av direkt mätbara egenskaper men kan också ges en förklarande beskrivning vid definition av klassen. 10 15 20 25 30 35 534 7GB Klassificering sker i blocket C Aktuellt tillstànd klassificeras i blocket C i figur 2, dvs. för varje tillståndsvektor beräknas till vilken klass tillstándsvektom hör. Definitionen av klassema lagrasi databasen 5 i figur 2. Definitionen av klassema är antingen given av annan del av systemet och matas in i databasen utifrån (användardefinierade klasser) eller så skapas klasserna i blocket K i figur 2. Klassdefinitionen kan uppdateras för varje ny tillstàndsvektor som kommer och matas sedan in i databasen. Klasserna kan vara namngivna för att underlätta tolkning av aktuellt läge. Om klassindelningen uppdateras dynamiskt sà mäste eventuellt namngivning ses över när klasserna ändras.Updating of states takes place in block T The second part of the filter consists of characterizing the current state in terms of dynamically or deterministically predetermined classes. The classes can be done in terms of directly measurable properties but can also be given an explanatory description at the definition of the class. 10 15 20 25 30 35 534 7GB Classification takes place in block C The current condition is classified in block C in Figure 2, ie. for each state vector, the class to which the state vector belongs is calculated. The definition of the classes is stored in the database 5 in Figure 2. The definition of the classes is either given by another part of the system and entered into the database from the outside (used classes) or the classes are created in block K in Figure 2. The class definition can be updated for each new state vector will then be entered into the database. The classes can be named to facilitate interpretation of the current situation. If the class division is updated dynamically, any naming must be reviewed when the classes change.
Klassíficering av data görs för att underlätta tolkningen av aktuellt läge och stödja operatörens arbete med att hitta samband mellan olika individer och händelser.Classification of data is done to facilitate the interpretation of the current situation and support the operator's work to find connections between different individuals and events.
Metoden kan se samband som är svåra för en operatör att upptäcka. Tillstånde- variablemas värde ger mer detaljerad information men kan bli för omfattande för att en operatör skall kunna tolka dem. Klassificering görs med någon för fackmannen känd metod såsom t.ex. K-means. En översikt över denna metod presenteras i R. O.The method can see connections that are difficult for an operator to detect. The value of the state variables provides more detailed information but may be too extensive for an operator to interpret. Classification is done by a method known to those skilled in the art, such as e.g. K-means. An overview of this method is presented in R. O.
Duda, P. E. Hart and D. G. Stork, “Pattern Classification", 2nd Edition, Wiley, 2000.Duda, P. E. Hart and D. G. Stork, "Pattern Classification," 2nd Edition, Wiley, 2000.
Anomalidetektion sker i blocket AD Metoden detekterar tillstånd som är på förhand definierade som ononnala eller till- stånd som awiker frän det normala i aktuella sensordata. Norrnala beteenden kan t.ex. fastslås genom statistik avseende sensordata. Man kan t.ex. ansätta att en parameter är norrnalfördelad och estimera fördelningens parametrar fràn data.Anomaly detection takes place in block AD. The method detects conditions that are predefined as nononal or conditions that deviate from the normal in the current sensor data. Normal behaviors can e.g. determined by statistics regarding sensor data. One can e.g. assume that a parameter is normally distributed and estimate the distribution parameters from data.
Fackmannen är bekant med sådan anomalidetekticn. I O. Boiman and M. lrani, “Detecting irregularities in images and in video” ges exempel på hur anomalier i rörelser kan detekteras.Those skilled in the art are familiar with such anomaly detection. O. Boiman and M. lrani, “Detecting irregularities in images and in video” give examples of how anomalies in movements can be detected.
Resultatet i form av uppfinningens analys är en lägesbild över området och kan presenteras i en kombination av kartor, sensordata och textbeskrivningar. En karta eller ritning kan visa området som övervakas med symboler för grundförutsättningar och aktuellt tillstànd. Lämpligen låter man operatören välja en delmängd av all information som finns tillgänglig. Kartan kan t.ex. visa geografiska begränsningar och sensorers position och synfält. Videosekvenser kan visas i realtid liksom data 534 706 10 fràn andra sensorer. l strömmarna kan symboler för aktuellt läge och analysresultat läggas in.The result in the form of the analysis of the invention is a situational picture of the area and can be presented in a combination of maps, sensor data and text descriptions. A map or drawing can show the area being monitored with symbols for basic conditions and current condition. Preferably, the operator is allowed to select a subset of all available information. The map can e.g. show geographical constraints and the position and field of view of sensors. Video sequences can be viewed in real time as well as data 534 706 10 from other sensors. Symbols for the current mode and analysis results can be entered in the streams.
En händelselogg kan itidsordning eller med annan sortering visa en lista med händelser. Händelser kan t.ex. fâ olika utformning i händelseloggen pà grund av dess prioritering för att underlätta operatörens arbete. Det kan också möjligt att låta operatören frysa bilden vid en viss tidpunkt och möjlighet att gå bakåt i tiden för att se hur läget var vid en tidigare tidpunkt.An event log can, in chronological order or with other sorting, display a list of events. Events can e.g. get different design in the event log due to its prioritization to facilitate the operator's work. It may also be possible to let the operator freeze the image at a certain time and the possibility to go back in time to see what the situation was like at an earlier time.
Claims (2)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1000386A SE534706C2 (en) | 2010-04-16 | 2010-04-16 | Method for video monitoring of an area of behavioral analysis and computer systems for implementing the method |
PCT/SE2011/000068 WO2011129739A1 (en) | 2010-04-16 | 2011-04-14 | Method for video surveillance of an area with behavioural analysis and computer system for carrying out the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE1000386A SE534706C2 (en) | 2010-04-16 | 2010-04-16 | Method for video monitoring of an area of behavioral analysis and computer systems for implementing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
SE1000386A1 SE1000386A1 (en) | 2011-10-17 |
SE534706C2 true SE534706C2 (en) | 2011-11-22 |
Family
ID=44798886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE1000386A SE534706C2 (en) | 2010-04-16 | 2010-04-16 | Method for video monitoring of an area of behavioral analysis and computer systems for implementing the method |
Country Status (2)
Country | Link |
---|---|
SE (1) | SE534706C2 (en) |
WO (1) | WO2011129739A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9892606B2 (en) * | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US7558404B2 (en) * | 2005-11-28 | 2009-07-07 | Honeywell International Inc. | Detection of abnormal crowd behavior |
CN101622652B (en) * | 2007-02-08 | 2012-03-21 | 行为识别系统公司 | Behavioral recognition system |
US8195598B2 (en) * | 2007-11-16 | 2012-06-05 | Agilence, Inc. | Method of and system for hierarchical human/crowd behavior detection |
US20100036875A1 (en) * | 2008-08-07 | 2010-02-11 | Honeywell International Inc. | system for automatic social network construction from image data |
-
2010
- 2010-04-16 SE SE1000386A patent/SE534706C2/en not_active IP Right Cessation
-
2011
- 2011-04-14 WO PCT/SE2011/000068 patent/WO2011129739A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2011129739A1 (en) | 2011-10-20 |
SE1000386A1 (en) | 2011-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dodge et al. | Revealing the physics of movement: Comparing the similarity of movement characteristics of different types of moving objects | |
Benabbas et al. | Motion pattern extraction and event detection for automatic visual surveillance | |
CN117351405B (en) | Crowd behavior analysis system and method | |
Harrou et al. | Malicious attacks detection in crowded areas using deep learning-based approach | |
KR102028930B1 (en) | method of providing categorized video processing for moving objects based on AI learning using moving information of objects | |
Zerrouki et al. | Accelerometer and camera-based strategy for improved human fall detection | |
CN111209774A (en) | Target behavior recognition and display method, device, equipment and readable medium | |
Henrio et al. | Anomaly detection in videos recorded by drones in a surveillance context | |
CN113743184B (en) | Abnormal Behavior Crowd Detection Method and Device Based on Element Mining and Video Analysis | |
Parameswari et al. | Human activity recognition using SVM and deep learning | |
EP3555804A1 (en) | System and method of video content filtering | |
WO2022113453A1 (en) | Abnormality detection device and abnormality detection method | |
Mahalingam et al. | A hybrid gray wolf and genetic whale optimization algorithm for efficient moving object analysis | |
Pham et al. | A proposal model using deep learning model integrated with knowledge graph for monitoring human behavior in forest protection | |
Harrou et al. | Statistical control chart and neural network classification for improving human fall detection | |
Duth et al. | Human Activity Detection Using Pose Net | |
Wang et al. | Video feature descriptor combining motion and appearance cues with length-invariant characteristics | |
SE534706C2 (en) | Method for video monitoring of an area of behavioral analysis and computer systems for implementing the method | |
Campo et al. | Modeling and classification of trajectories based on a gaussian process decomposition into discrete components | |
Cam et al. | Fall detection system based on pose estimation in videos | |
CN107871019B (en) | Man-vehicle association search method and device | |
Yang et al. | Graph stream mining based anomalous event analysis | |
Patel et al. | Indoor human fall detection using deep learning | |
Singh et al. | Crowd Management and Monitoring using Deep Convolutinal Neural Network | |
Mosca et al. | Human Walking Behavior detection with a RGB-D Sensors Network for Ambient Assisted Living Applications. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
NUG | Patent has lapsed |