[go: up one dir, main page]

JP6313395B1 - 描画処理方法、描画処理プログラム及び描画処理装置 - Google Patents

描画処理方法、描画処理プログラム及び描画処理装置 Download PDF

Info

Publication number
JP6313395B1
JP6313395B1 JP2016203954A JP2016203954A JP6313395B1 JP 6313395 B1 JP6313395 B1 JP 6313395B1 JP 2016203954 A JP2016203954 A JP 2016203954A JP 2016203954 A JP2016203954 A JP 2016203954A JP 6313395 B1 JP6313395 B1 JP 6313395B1
Authority
JP
Japan
Prior art keywords
start position
control unit
touch
input
drawing processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016203954A
Other languages
English (en)
Other versions
JP2018067068A (ja
Inventor
浜田 和明
和明 浜田
基準 韓
基準 韓
中村 茂樹
茂樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Holdings Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2016203954A priority Critical patent/JP6313395B1/ja
Priority to US15/785,150 priority patent/US20180121076A1/en
Application granted granted Critical
Publication of JP6313395B1 publication Critical patent/JP6313395B1/ja
Publication of JP2018067068A publication Critical patent/JP2018067068A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • G06T11/23
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】効率的かつ的確な描画を支援するための描画処理方法、描画処理プログラム及び描画処理装置を提供する。【解決手段】ユーザ端末10は、制御部11とタッチ入力可能なタッチパネルディスプレイ14とを備える。そして、制御部11が、描画操作について、線画の選択を検知した場合、線画の描画開始位置を特定し、描画開始位置から離れた位置の操作開始位置からの軌跡に応じて描画された線画のオブジェクトを生成する。また、制御部11は、描画操作について、図形の選択を検知した場合、図形オブジェクトの配置位置を特定し、配置位置から離れた位置の操作開始位置からの軌跡に応じて、図形オブジェクトの配置を決定する。【選択図】図1

Description

本発明は、コンピュータ端末において、描画を支援するための描画処理方法、描画処理プログラム及び描画処理装置に関する。
タブレット端末等のコンピュータ端末では、タッチパネルディスプレイにおいて各種操作を行なう。このようなタッチパネルディスプレイを用いることにより、直感的な操作が可能となる。そこで、タッチパネル式の表示部を備える携帯端末装置でタッチパネル全面のタッチ操作を実現する技術が開示されている(例えば、特許文献1)。この文献に記載された技術では、端末の傾きの変化を検出し、傾きの方向を判定し、判定した内容に基づき、タッチパネルでの操作を伴う操作子を含んだ画面の表示位置を移動させ、操作子に対する操作を受け付ける。
また、タッチ操作により描画像を生成する技術も検討されている(例えば、特許文献2)。この文献記載のタッチ操作入力装置は、表示画面に対してタッチ操作により入力を可能とするものであり、タッチ操作を検出するタッチ操作検出部と、タッチ操作検出部の検出結果により操作内容を判定して処理を行なう操作処理部とを備える。操作処理の判定結果により、メニューの表示処理とメニュー項目の処理や、描画モードの場合、タッチ部分に描画像を生成する処理を実行する。そして、タッチ操作をメニュー処理の操作と判定した場合、画像処理部は、描画モードであっても、タッチ操作による描画像を消去する。
特開2014−149653号公報 特開2015−207040号公報
しかしながら、タッチパネルディスプレイにおいて、指等によるタッチ操作を行なう場合、的確な操作が困難なことがある。例えば、指先の大きさに対して、タッチパネルディスプレイが比較的小さく、表示領域も小さい場合、タッチパネルディスプレイ上の表示が指に隠れ、的確な操作が難しい。タッチパネルディスプレイに表示された画像を拡大して操作することも可能であるが、画像の拡大には手間がかかり、効率的な操作を実現することができない。
本発明は、上記問題点を解決するためになされたものであり、効率的かつ的確な描画を支援するための描画処理方法、描画処理プログラム及び描画処理装置を提供することにある。
・上記課題を解決する描画処理方法は、制御部と入力操作が可能な表示部とを備えた描画処理装置を制御する。前記制御部が、描画操作について、前記表示部での入力位置に応じて線画の描画開始位置を特定し、前記描画開始位置が特定された後に入力された任意の操作開始位置からの軌跡に応じて前記描画開始位置から描画された線画のオブジェクトを生成する。これにより、描画領域とは異なる位置における操作により描画が行なうことができる。従って、タッチ操作時において指等により描画領域が隠れることなく、的確かつ効率的な描画を行なうことができる。
・上記描画処理方法においては、前記制御部が、描画操作について、オブジェクトの選択を検知した場合オブジェクトの配置位置を特定し、前記配置位置から離れた位置の操作開始位置からの軌跡に応じて、前オブジェクトの配置を決定することが好ましい。これにより、図形が配置された領域とは離れた領域で、図形の配置を確認しながら図形を設定することができる。
・上記描画処理方法においては、描画操作について、オブジェクトの部分消去指示を検知した場合、消去開始位置を特定し、前記表示部の入力位置に応じた任意の操作開始位置からの軌跡に応じて前記消去開始位置から前記オブジェクトの部分消去を行なうことが好ましい。これにより、消去領域から離れた領域で、効率的かつ的確に消去操作を行なうことができる。
・上記描画処理方法においては、前記オブジェクトの配置に対して、複数の操作エリアが設定されており、各操作エリアの選択に応じて、前記オブジェクトに対して異なる操作を実行することが好ましい。これにより、効率的にオブジェクトに対する操作を行なうことができる。
・上記描画処理方法においては、前記オブジェクト内の基準位置に対して、操作開始位置からの軌跡の広がり角度を算出し、前記広がり角度に基づいて、前記オブジェクトの回転操作を実行することが好ましい。これにより、オブジェクトから離れた領域で、オブジェクトの回転を操作することができる。
・上記描画処理方法においては、前記表示部において操作された操作位置のオブジェクトの属性を特定し、属性表示領域に表示し、操作オフの検知時に、前記属性を描画時の属性として設定することが好ましい。これにより、タッチ位置とは異なる領域で属性を確認することができる。
・上記描画処理方法においては、前記操作位置の周囲に属性候補を出力し、操作オフ方向に応じて、前記属性候補の中から描画時に用いる属性を決定することが好ましい。これにより、効率的に属性を決定することができる。
・上記描画処理方法においては、始点と終点とが設定されたオブジェクトが選択された場合、前記表示部の操作位置に前記始点を設定し、スライド操作された操作位置に前記終点を設定して、前記オブジェクトを前記表示部に出力し、操作オフ時に前記オブジェクトの形状を決定することが好ましい。これにより、スライド操作によりオブジェクトの大きさを確認しながら、効率的に形状や配置を決定することができる。
本発明によれば、コンピュータ端末において、効率的かつ的確な描画を支援することができる。
第1の実施形態の描画処理装置の機能ブロックの説明図。 描画処理装置のハードウェア構成例の説明図。 第1の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第1の実施形態における処理手順の説明図。 第1の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第1の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第2の実施形態における操作エリアの説明図。 第2の実施形態における処理手順の説明図。 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第2の実施形態におけるタッチパネルディスプレイの表示画面の説明図。 第3の実施形態における処理手順の説明図。 第4の実施形態における処理手順の説明図。 第5の実施形態における処理手順の説明図。
(第1の実施形態)
以下、図1〜図6に従って、本発明を具体化した描画処理装置の第1の実施形態を説明する。本実施形態では、ユーザ端末10に表示された画面において描画を行なう場合を説明する。
ユーザ端末10は、利用者が用いるコンピュータ端末(描画処理装置)であって、各種アプリケーションを実行させることにより、情報の出力や入力に用いられる。
図1に示すように、本実施形態では、このユーザ端末10は、制御部11、メモリ12、通信部13、タッチパネルディスプレイ14を備えている。
制御部11は、後述する処理(表示制御段階、タッチ制御段階、アプリケーション実行段階、描画処理段階、SNS処理段階等の各処理等)を行なう。そして、制御部11は、図1に示すように、表示制御部111、タッチ制御部112、アプリケーション実行部113として機能するとともに、アプリケーションプログラムを実行することにより、描画処理部114、SNS処理部115として機能する。
表示制御部111は、タッチパネルディスプレイ14における表示を制御する処理を実行する。具体的には、タッチパネルディスプレイ14に出力された表示画面の階層(表示レイヤ)を制御する。本実施形態では、描画を行なう描画レイヤと、この描画レイヤと位置を同期され、カーソルや図形の枠線を表示する操作レイヤとを含む。
タッチ制御部112は、タッチパネルディスプレイ14におけるタッチを検知する処理を実行する。
アプリケーション実行部113は、ユーザ端末10に格納されたアプリケーション(例えば、情報共有、ソーシャルネットワークサービス等)のアプリケーション起動、実行等の管理を行なう。
描画処理部114は、タッチパネルディスプレイ14における線画や図形の描画を制御する処理を実行する。描画処理部114は、上述した描画レイヤにおいて画面を出力する。本実施形態では、描画レイヤには、HTML5のcanvas要素の「Canvas API」を利用し、操作レイヤには、HTMLのDOM(Document Object Model)を利用する。これにより、描画レイヤにおける処理負担を軽減することができる。そして、操作レイヤでのカーソルの位置情報の更新は、高い頻度で行なうが、描画レイヤでの図形の更新は、新しいオブジェクトが追加されたとき等、頻度を低くして、処理負荷を軽減する。
SNS処理部115は、ソーシャルネットワークサービス(SNS)を利用する処理を実行する。ここでは、ユーザ端末10(描画処理装置)と、通信可能なサーバ装置(図示せず)が生成したデータに基づいて、ユーザ端末10のタッチパネルディスプレイ14に画面を表示させるウェブ表示を行なう。
メモリ12には、タッチパネルディスプレイ14において描画に用いる情報を記録する。例えば、タッチパネルディスプレイ14において検知したスライド軌跡や、このスライド軌跡により生成された図形(オブジェクト)を仮記憶する。例えば、操作レイヤでのカーソルの位置情報を更新したり、描画の一時保存が指示された場合や、描画処理プログラムが停止した場合には、描画レイヤで生成されたオブジェクトを更新したりする。
通信部13は、ネットワークを介して、サーバ装置や他のユーザ端末と通信を行なう。
タッチパネルディスプレイ14は、表示手段及び入力手段として機能する。具体的には、パネル上に情報を出力するとともに、パネル表面に触れる(タッチする)ことにより、タッチされた画面位置の情報を感知して各種操作(例えば、タップ、スライド、スワイプ、フリック等)を行なうことができる。
(ハードウェア構成例)
図2は、ユーザ端末10のハードウェア構成例である。
ユーザ端末10は、通信インターフェースH11、入力装置H12、表示装置H13、記憶部H14、プロセッサH15を有する。なお、このハードウェア構成は一例であり、他のハードウェアを有していてもよい。
通信インターフェースH11は、他の装置との間で通信経路を確立して、データの送受信を実行するインターフェースであり、通信部13を実現する。例えばネットワークインターフェースカードや無線インターフェース等である。
入力装置H12は、ユーザ等からの入力を受け付ける装置である。表示装置H13は、各種情報を表示するディスプレイ等である。本実施形態では、入力装置H12、表示装置H13として、タッチパネルディスプレイ14を用いる。
記憶部H14は、ユーザ端末10の各種機能を実行するためのデータや各種プログラムを格納する記憶装置であり、メモリ12を実現する。記憶部H14の一例としては、ROM、RAM、ハードディスク等がある。
プロセッサH15は、記憶部H14に記憶されるプログラムやデータを用いて、ユーザ端末10における各処理を制御する制御部11を実現する。プロセッサH15の一例としては、例えばCPUやMPU等がある。このプロセッサH15は、ROM等に記憶されるプログラムをRAMに展開して、各種処理に対応する各種プロセスを実行する。
(ユーザ端末10における動作)
次に、図3〜図6を用いて、このユーザ端末10における動作を説明する。所定のアプリケーションにおいて、ユーザが描画を行なう場合には、ユーザ端末10のタッチパネルディスプレイ14を用いて、描画機能を指示する。
この場合、図3に示すように、制御部11のアプリケーション実行部113は、描画処理部114、SNS処理部115を起動し、タッチパネルディスプレイ14に表示画面200を出力する。この表示画面200には、ツールメニュー210、描画エリア220が表示される。
ツールメニュー210には、描画ボタン211、消しゴムボタン212、図形ボタン213、テキストボタン214、カメラボタン215、アシストボタン216等が表示される。
描画ボタン211は、描画エリア220での線画の描画に用いる線種(描画ツール)を選択するためのツール画面を表示する場合に用いる。
消しゴムボタン212は、描画エリア220に表示された線画や図形を部分的に消去するための消しゴムツールを表示する場合に用いる。
図形ボタン213は、描画エリア220に、予め準備された図形(例えば、正方形、円形、矢印、ハート型等)を配置するための図形ツールを表示する場合に用いる。
テキストボタン214は、描画エリア220に、テキスト入力を行なうためのソフトウェアキーボードを表示する場合に用いる。
カメラボタン215は、描画エリア220に、カメラにより撮影された画像等を表示する場合に用いる。
アシストボタン216は、描画エリア220における描画を支援するための機能を実行するためのボタンである。このアシストボタン216を選択することにより、各種アシスト機能の一覧がプルダウンされる。本実施形態では、アシスト機能には、「ポインターモード」、「拡大・縮小モード」、「一時保存」、「一時保存呼び出し」、「ヘルプ」等の機能が含まれる。
「ポインターモード」は、後述するように、描画位置に対して離れた操作位置での描画を支援する機能である。
「拡大・縮小モード」は、描画エリア220の拡大、縮小を行なう機能である。
「一時保存」は、描画エリア220における描画内容をメモリ12に一時的に保存する機能であり、「一時保存呼び出し」は、メモリに一時的に保存された描画内容を描画エリア220に呼び出す機能である。
「ヘルプ」は、ツールメニュー210に表示された各ボタン等の説明を、吹き出しアイコンにより出力する機能である。
(ポインターモード処理)
以下、図4を用いて、アシストボタン216を用いて「ポインターモード」を指定した場合のポインターモード処理を説明する。このポインターモード処理においては、例えば、描画ツールを用いて線画を描く場合、描画を行なう領域とは離れた位置におけるスライド操作により、線画を描くことができる。
まず、ユーザ端末10の制御部11は、描画ツールの指定処理を実行する(ステップS1−1)。具体的には、ツールメニュー210において、描画ボタン211を選択する。この場合、制御部11の描画処理部114は、タッチパネルディスプレイ14にツール画面を出力する。このツール画面においては、線画を描くための線種(配色、太さ、透明度、縁つき等)の選択画面が含まれる。
次に、ユーザ端末10の制御部11は、描画開始位置の設定処理を実行する(ステップS1−2)。具体的には、線画を描く場合、描画エリア220において、線画の描画開始位置を、タッチパネルディスプレイ14上をタッチしてすぐに離す「タップ」を行なう。この場合、制御部11のタッチ制御部112は、描画エリア220においてタップ位置(座標)を特定する。そして、描画処理部114は、タップ位置に線画を描くためのポインタ(カーソル)を配置する。
図3に示すように、描画エリア220において、タップを検知した場合、描画処理部114は、ポインタ230を表示する。後述するように、このポインタ230は、ペンとして機能し、ポインタ230を移動させることにより線画を描くことができる。
次に、ユーザ端末10の制御部11は、操作開始位置の設定処理を実行する(ステップS1−3)。具体的には、配置されたポインタを用いて、線画を描く場合、描画エリア220において、再度、任意の位置をタッチする。ここでは、描画開始位置と異なる位置をタッチすることができる。この場合、制御部11の描画処理部114は、再度タッチされた位置を操作開始位置として設定する。
ここで、描画エリア220の座標を(x,y)で表現した場合、操作開始位置の座標(x2,y2)から描画開始位置の座標(x1,y1)への補正ベクトル(x3,y3)〔=(x1−x2,y1−y2)〕を算出する。
次に、ユーザ端末10の制御部11は、タッチオフかどうかについての判定処理を実行する(ステップS1−4)。具体的には、線画を描く場合には、操作レイヤにおいて、タッチを継続しながら、タッチ位置を移動させるスライドを行なう。制御部11のタッチ制御部112は、タッチ位置のスライドを検知しながら、タッチパネルディスプレイ14からのタッチの離脱(タッチオフ)を待機する。
この場合、新たなスライド位置の座標(xi,yi)について、補正ベクトル(x3,y3)を用いて、ポインタ位置(xi+x3,yi+y3)を算出して、このポインタ位置で描画を行なう。
タッチオフでないと判定した場合(ステップS1−4において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡に応じた描画処理を実行する(ステップS1−5)。具体的には、制御部11のタッチ制御部112は、操作開始位置を始点とするスライド軌跡と同様に、ポインタを移動させる。この場合、タッチ位置(座標)と描画を行なうポインタ位置(座標)は、操作開始位置(座標)と描画開始位置(座標)との相対位置関係を保持する。その結果、描画処理部114は、描画開始位置から、スライド軌跡と同じ線画を描画エリア220に表示する。
図5に示すように、スライド軌跡240と同様に、ポインタ230が移動することにより、スライド軌跡240とは離れた位置に線画241が生成される。
一方、タッチオフと判定した場合(ステップS1−4において「YES」の場合)、ユーザ端末10の制御部11は、オブジェクト設定処理を実行する(ステップS1−6)。具体的には、制御部11の描画処理部114は、描画を終了し、ポインタにより描かれた線画241を、表示レイヤにオブジェクトとして書き込む。
完成した線画241に対して、新たな線画を生成する場合には、再度、描画開始位置の設定処理(ステップS1−2)から繰り返す。
例えば、図6に示すように、最初の線画241に接続した新たな線画を描く場合には、接続位置をタップすることにより、描画開始位置242を設定する。そして、再度、描画エリア220のいずれかの場所をタッチし、この操作開始位置を始点とするスライド軌跡243で指をスライドさせる。この場合、新たな線画244が生成される。
そして、SNS処理部115は、この線画244のオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)上記実施形態では、ユーザ端末10の制御部11は、描画開始位置の設定処理(ステップS1−2)、操作開始位置の設定処理(ステップS1−3)、スライド軌跡に応じた描画処理(ステップS1−5)を実行する。これにより、描画領域とは異なる位置でのタッチ操作により、描画を行なうことができる。従って、タッチ操作時において指により描画領域が隠れることなく、的確かつ効率的な描画を行なうことができる。更に、操作開始位置を任意に設定することができるので、ユーザにとって都合がよい領域で、スライド操作を行なうことができる。
(第2の実施形態)
次に、図7〜図12を用いて、第2の実施形態を説明する。第1の実施形態においては、線画を作成する場合を説明した。第2の実施形態は、第1の実施形態において、図形を作成する構成であり、同様の部分については詳細な説明を省略する。
図形を用いて描画を行なう場合、図3のツールメニュー210において、図形ボタン213を選択する。この場合、制御部11の描画処理部114は、ツール画面を出力する。このツール画面においては、描画に用いる図形(例えば、正方形、円形、矢印、ハート型等)や、図形属性(配色、太さ、透明度、縁つき等)の選択画面が含まれる。そして、ツール画面において「配置」ボタンが選択された場合、描画処理部114は、選択された図形(ここでは、ハート型)のオブジェクトを、描画エリア220に表示する。そして、図形のオブジェクトの変形や回転、配置の変更を行なう。
図7に示すように、図形のオブジェクト300の内部や周囲には、複数の操作エリアを設定する。本実施形態では、オブジェクト300の内部及び周辺に9個の操作エリアが設定される。オブジェクト300を包含する矩形の各頂点301〜304及び頂点間の線分のスライド操作(移動)により、オブジェクト300の変形操作を行なう。更に、オブジェクト300内部のスライド操作(移動)により、オブジェクト300全体の移動操作を行なう。
このために、頂点301〜304の周囲には、それぞれ変形操作エリア311〜314が設けられている。変形操作エリア311〜314の大きさは、例えば、矩形の短辺の所定割合や所定長さの辺からなる正方形を用いる。変形操作エリア311をタッチしてスライド操作が行なわれた場合には、頂点301の配置を変更する。変形操作エリア312をタッチしてスライド操作が行なわれた場合には、頂点302の配置を変更する。変形操作エリア313をタッチしてスライド操作が行なわれた場合には、頂点303の配置を変更する。変形操作エリア314をタッチしてスライド操作が行なわれた場合には、頂点304の配置を変更する。
また、頂点301〜304間の各辺に対応して、変形操作エリア321〜324が設けられている。変形操作エリア321は右辺を左右に移動する操作が行なわれた場合、右辺を位置を変更してオブジェクト300を変形する。変形操作エリア322は左辺を左右に移動する操作が行なわれた場合、左辺を位置を変更してオブジェクト300を変形する。変形操作エリア323は上辺を上下に移動する操作が行なわれた場合、上辺を位置を変更してオブジェクト300を変形する。変形操作エリア324は下辺を上下に移動する操作が行なわれた場合、下辺を位置を変更してオブジェクト300を変形する。
更に、オブジェクト300の内部には、変形操作エリア311〜314,321〜324に囲まれた移動操作エリア330を設ける。この移動操作エリア330がタッチされてスライド操作を検知した場合、オブジェクト300の形状を維持しながらスライド方向に、オブジェクト300全体を移動させる。
更に、変形操作エリア311〜314,321〜324の外側領域においても、オブジェクト300に対する操作を行なう操作エリアを設ける。各操作エリア以外の外側領域においてスライドを検知した場合、オブジェクト300の中心(オブジェクト内の基準位置)を軸としてオブジェクト300全体を回転させる。なお、オブジェクト内の基準位置は、予め定められた位置であれば、オブジェクトの中心に限定されるものではない。
(図形操作処理)
図8を用いて、各操作エリアを用いての図形操作を説明する。
まず、ユーザ端末10の制御部11は、オブジェクト選択処理を実行する(ステップS2−1)。具体的には、ツールメニュー210において、図形ボタン213を選択する。この場合、制御部11の描画処理部114は、タッチパネルディスプレイ14にツール画面を出力する。このツール画面を用いて、描画に用いる図形や図形属性を選択する。
次に、ユーザ端末10の制御部11は、オブジェクト配置処理を実行する(ステップS2−2)。具体的には、ツール画面において配置ボタンを選択する。この場合、制御部11の描画処理部114は、描画エリア220に、選択された図形のオブジェクト300を配置する。
次に、ユーザ端末10の制御部11は、タッチ位置の特定処理を実行する(ステップS2−3)。具体的には、制御部11のタッチ制御部112は、描画エリア220において、オブジェクト300に対して、タッチ位置の座標を特定する。
次に、ユーザ端末10の制御部11は、オブジェクト周辺内かどうかについての判定処理を実行する(ステップS2−4)。具体的には、制御部11の描画処理部114は、タッチ位置と、オブジェクト300に対して設定された操作エリアとの位置関係を特定する。タッチ位置が、変形操作エリア311〜314,321〜324、移動操作エリア330に含まれる場合には、オブジェクト周辺内と判定する。
オブジェクト周辺内に含まれないと判定した場合(ステップS2−4において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡の回転角の算出処理を実行する(ステップS2−5)。具体的には、オブジェクトを回転させる場合、変形操作エリア311〜314,321〜324、移動操作エリア330の外側において、タッチ位置(スライド開始位置)からスライド操作を行なう。この場合、制御部11のタッチ制御部112は、図形のオブジェクトの中心に対して、スライド開始位置から現在のタッチ位置までの広がり角度(回転角)を算出する。
次に、ユーザ端末10の制御部11は、回転角に応じてオブジェクトの回転処理を実行する(ステップS2−6)。具体的には、制御部11の描画処理部114は、この回転角に応じて、オブジェクト300を回転させる。そして、スライド操作のタッチオフ時に、オブジェクト300の配置を設定する。
図9に示すように、オブジェクト300の中心から、最初に検知したタッチ位置(スライド開始位置)から現在のタッチ位置までのスライド軌跡400の広がり角度(回転角)を算出する。そして、この回転角を用いて、オブジェクト300を回転させる。そして、描画処理部114は、スライド操作のタッチオフ時に、オブジェクト300の配置を決定し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
一方、オブジェクト周辺内に含まれると判定した場合(ステップS2−4において「YES」の場合)、ユーザ端末10の制御部11は、移動操作かどうかについての判定処理を実行する(ステップS2−7)。具体的には、制御部11のタッチ制御部112は、タッチ位置が、移動操作エリア330に含まれる場合には、移動操作と判定する。
移動操作と判定した場合(ステップS2−7において「YES」の場合)、ユーザ端末10の制御部11は、スライド軌跡に応じてオブジェクトの移動処理を実行する(ステップS2−8)。具体的には、制御部11の描画処理部114は、スライド軌跡に応じて、オブジェクト300を移動する。そして、描画処理部114は、スライド操作のタッチオフ時に、オブジェクト300の配置を決定し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
図10に示すように、移動操作と判定した場合、スライド軌跡410に応じて、オブジェクト300を移動する。
一方、タッチ位置が、変形操作エリア311〜314,321〜324に含まれる場合には、変形操作と判定する。変形操作と判定した場合(ステップS2−7において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡に応じてオブジェクトの変形処理を実行する(ステップS2−9)。具体的には、制御部11の描画処理部114は、変形操作エリア311〜314,321〜324に応じて、オブジェクト300を変形する。そして、描画処理部114は、スライド操作のタッチオフ時に、オブジェクト300の形状を決定し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
図11に示すように、変形操作エリア321のタッチを検知した場合、オブジェクト300の右辺を左右に移動させて、オブジェクト300を変形したオブジェクト420を生成する。
また、図12に示すように、変形操作エリア312のタッチを検知した場合、オブジェクト300の頂点302を移動させて、オブジェクト300を変形したオブジェクト430を生成する。
以上、本実施形態によれば、以下に示す効果を得ることができる。
(2)上記実施形態では、オブジェクト300に対して、変形操作エリア311〜314,321〜324を設ける。タッチ操作により、図形を変形する場合、頂点や線分のような狭い領域を、指により的確に選択することができない場合がある。これに対して、頂点や線分の周囲に配置された操作エリアにより、効率的かつ的確に変形を行なうことができる。
(3)上記実施形態では、変形操作エリア311〜314,321〜324の外側領域においても、オブジェクト300に対する操作を行なう操作エリアを設ける。オブジェクト周辺内に含まれないと判定した場合(ステップS2−4において「NO」の場合)、ユーザ端末10の制御部11は、スライド軌跡の回転角の算出処理(ステップS2−5)、回転角に応じてオブジェクトの回転処理(ステップS2−6)を実行する。これにより、オブジェクトから離れた位置でのスライド操作により、オブジェクトの状況を確認しながら、配置を変更することができる。
(第3の実施形態)
次に、図13を用いて、第3の実施形態を説明する。第1の実施形態においては、線画を作成する場合、第2の実施形態においては、図形を作成する場合を説明した。この場合、ツール画面において、例えばカラーパレット等を用いて配色を決定する。第3の実施形態は、描画エリアに表示されたオブジェクトの属性(ここでは配色)を用いて、線画や図形の配色を決定する構成であり、同様の部分については詳細な説明を省略する。
(配色決定処理)
図13を用いて、配色決定処理を説明する。
まず、ユーザ端末10の制御部11は、長押し検知処理を実行する(ステップS3−1)。具体的には、画面上に表示されている任意の色の箇所から色を吸い取り、配色を決定するスポイト機能を起動させる場合には、描画エリア220上で、タッチを継続する長押し操作を行なう。この場合、制御部11のタッチ制御部112は、同じ位置でのタッチ継続時間を計測し、長押し基準時間を経過した場合には、長押し操作と判定する。
次に、ユーザ端末10の制御部11は、ポインタ位置の色抽出処理を実行する(ステップS3−2)。具体的には、制御部11の描画処理部114は、長押し操作が行なわれた位置にポインタを配置する。そして、描画処理部114は、ポインタが配置された位置の配色を抽出する。更に、描画処理部114は、ツール画面の配色の選択画面(属性表示領域)に、描画エリアから抽出した配色を表示する。ここで、タッチパネルディスプレイ14にタッチした状態でポインタ位置(タッチ位置)スライド操作を行なった場合、描画処理部114は、ポインタ位置の色抽出処理(ステップS3−2)を継続する。
次に、ユーザ端末10の制御部11は、タッチオフかどうかについての判定処理を実行する(ステップS3−3)。具体的には、制御部11のタッチ制御部112は、タッチパネルディスプレイ14におけるタッチ位置のスライドに追従しながら、タッチの離脱(タッチオフ)を待機する。
タッチオフでないと判定した場合(ステップS3−3において「NO」の場合)、ユーザ端末10の制御部11は、ポインタ位置の色抽出処理(ステップS3−2)を継続する。
タッチオフと判定した場合(ステップS3−3において「YES」の場合)、ユーザ端末10の制御部11は、配色の設定処理を実行する(ステップS3−4)。具体的には、制御部11の描画処理部114は、タッチオフ時のポインタ位置の配色をツール画面に設定する。これにより、この配色を用いての線画や図形の配置を行なうことができる。
以上、本実施形態によれば、以下に示す効果を得ることができる。
(4)上記実施形態では、ユーザ端末10の制御部11は、長押し検知処理(ステップS3−1)、ポインタ位置の色抽出処理(ステップS3−2)を実行する。タッチオフと判定した場合(ステップS3−3において「YES」の場合)、ユーザ端末10の制御部11は、配色の設定処理を実行する(ステップS3−4)。これにより、タッチ位置とは異なるツール画面において、配色を確認しながら、所望の配色を選択することができる。
(第4の実施形態)
次に、図14を用いて、第4の実施形態を説明する。第3の実施形態においては、ポインタ位置の配色を抽出して、描画に利用する場合を説明した。第4の実施形態は、配色候補を出力する構成であり、同様の部分については詳細な説明を省略する。この場合、描画処理部114は、使用された配色の操作履歴やユーザによって指定された配色を、配色候補として記憶する。
(配色決定処理)
図14を用いて、配色決定処理を説明する。
まず、ユーザ端末10の制御部11は、ステップS3−1と同様に、長押し検知処理を実行する(ステップS4−1)。
この場合、更に、ユーザ端末10の制御部11は、配色候補の出力処理を実行する。具体的には、制御部11の描画処理部114は、ポインタの周囲に配色候補を出力する。例えば、ポインタの上下左右の十字方向に、異なる配色の候補を出力する。配色候補としては、記憶した使用履歴やユーザ指定の配色を用いることができる。なお、配色候補の出力位置は、長押し操作位置の周囲であれば、十字方向に限定されるものではない。
次に、ユーザ端末10の制御部11は、フリックかどうかについての判定処理を実行する(ステップS4−2)。具体的には、制御部11のタッチ制御部112は、タッチした指を素早く動かしたり弾いたりする操作を検知した場合、フリック操作と判定する。
フリックと判定した場合(ステップS4−2において「YES」の場合)、ユーザ端末10の制御部11は、フリック方向に応じて配色の特定処理を実行する(ステップS4−3)。具体的には、制御部11の描画処理部114は、フリック方向に設定された配色候補を、描画に用いる配色として特定する。
一方、フリックでないと判定した場合(ステップS4−2において「NO」の場合)、ユーザ端末10の制御部11は、ステップS3−2〜S3−4と同様に、ポインタ位置の色抽出処理(ステップS4−4)、タッチオフかどうかについての判定処理(ステップS4−5)、配色の設定処理(ステップS4−6)を実行する。
以上、本実施形態によれば、上記(4)の効果に加えて、以下に示す効果を得ることができる。
(5)上記実施形態では、ユーザ端末10の制御部11は、配色候補の出力処理を実行する。そして、フリックと判定した場合(ステップS4−2において「YES」の場合)、ユーザ端末10の制御部11は、フリック方向に応じて配色の特定処理を実行する(ステップS4−3)。これにより、配色候補により、効率的に配色を選択することができる。
(第5の実施形態)
次に、図15を用いて、第5の実施形態を説明する。第2の実施形態においては、図形オブジェクトを配置して、移動や変形を行なう場合を説明した。第5の実施形態は、図形オブジェクトの配置時に変形する構成であり、同様の部分については詳細な説明を省略する。この場合、描画に用いることができる図形オブジェクトには、始点と終点とを設定しておく。
(図形生成処理)
図15を用いて、図形生成処理を説明する。
まず、ユーザ端末10の制御部11は、ステップS2−1と同様に、オブジェクト選択処理を実行する(ステップS5−1)。
次に、ユーザ端末10の制御部11は、最初のタップ位置に始点設定処理を実行する(ステップS5−2)。具体的には、選択したオブジェクトの描画を行なう場合、描画エリア220において、オブジェクトの描画開始位置をタップする。この場合、制御部11のタッチ制御部112は、描画エリア220において、タッチされたタップ位置(座標)を特定する。そして、描画処理部114は、このタップ位置に、オブジェクトの描画開始位置(始点)を設定する。
次に、ユーザ端末10の制御部11は、2回目のタッチの検知処理を実行する(ステップS5−3)。具体的には、オブジェクトの終点位置を決定する場合には、再度、描画エリア220をタッチする。この場合、制御部11のタッチ制御部112は、描画エリア220において、タッチ位置(座標)を特定する。
次に、ユーザ端末10の制御部11は、タッチ位置に終点設定処理を実行する(ステップS5−4)。具体的には、制御部11の描画処理部114は、このタッチ位置に、オブジェクトの描画終点位置を設定する。
次に、ユーザ端末10の制御部11は、始点、終点でオブジェクトの変形処理を実行する(ステップS5−5)。具体的には、制御部11の描画処理部114は、描画開始位置、描画終点位置に、オブジェクトの始点、終点を設定し、描画エリア220にオブジェクトを表示する。
次に、ユーザ端末10の制御部11は、タッチオフかどうかについての判定処理を実行する(ステップS5−6)。具体的には、オブジェクトを変形させる場合、タッチ位置をスライドさせる。この場合、制御部11の描画処理部114は、スライド操作に応じて、オブジェクトの終点を追従させて、図形を変形する。そして、描画処理部114は、タッチパネルディスプレイ14からタッチの離脱(タッチオフ)を待機する。
タッチオフでないと判定した場合(ステップS5−6において「NO」の場合)、ユーザ端末10の制御部11は、始点、終点でオブジェクトの変形処理(ステップS5−5)を継続する。
一方、タッチオフと判定した場合(ステップS1−4において「YES」の場合)、ユーザ端末10の制御部11は、オブジェクトの設定処理を実行する(ステップS5−7)。具体的には、制御部11の描画処理部114は、タッチオフ位置を終点とするオブジェクトを生成し、SNS処理部115は、このオブジェクトを含む画像を用いて、ソーシャルネットワークサービスを利用する。
以上、本実施形態によれば、以下に示す効果を得ることができる。
(6)上記実施形態では、ユーザ端末10の制御部11は、最初のタップ位置に始点設定処理(ステップS5−2)、タッチ位置に終点設定処理(ステップS5−4)、始点、終点でオブジェクトの変形処理(ステップS5−5)を実行する。これにより、始点及び終点の設定やスライド操作によって、オブジェクトの形状や配置を決定することができる。
なお、上記実施形態は、以下の態様に変更してもよい。
・上記第1の実施形態では、ユーザ端末10の制御部11は、描画ツールの指定処理を実行する(ステップS1−1)。ここでは、ツールメニュー210において、描画ボタン211を選択する。これに代えて、消しゴムボタン212が選択された場合に、ポインターモード処理を実行するようにしてもよい。この場合には、描画処理部114は、ツール画面で消しゴムツールの大きさを指定する。そして、背景色による線画を描くことにより、図形の一部を消去する。この場合も、ユーザ端末10の制御部11は、描画開始位置の設定処理(ステップS1−2)において消去開始位置を設定し、操作開始位置の設定処理(ステップS1−3)、スライド軌跡に応じた描画処理(ステップS1−5)により、軌跡に応じた消去を行なう。
・上記第1の実施形態では、操作開始位置の座標から描画開始位置の座標への補正ベクトル(x3,y3)を算出する。ここで、補正ベクトルの決定方法は、これに限定されるものではない。例えば、予め定めた初期設定の補正ベクトル(x4,y4)を用いてもよい。この場合、操作開始位置に対して、初期設定の補正ベクトルを用いて描画開始位置を決定する。すなわち、操作開始位置の設定処理(ステップS1−3)に応じて、描画開始位置の設定処理(ステップS1−2)を実行する。なお、初期設定の補正ベクトルの要素は、同じ値(x4=y4)に設定したり、異なる値(x4≠y4)に設定したりしてもよい。
また、補正ベクトルを、ユーザの入力や、操作環境に応じて変更するようにしてもよい。具体的には、制御部11が、ユーザのタッチ位置の面積(指の広さ、スタイラスの広さ)を判定し、その値に応じて、補正ベクトルを変更する。例えば、タッチ位置の面積が広い場合には、補正ベクトルを大きくする。これにより、ユーザの入力に応じた快適な描画が可能となる。
また、ユーザの書き直し、修正操作等に応じて、補正ベクトルを変更してもよい。ユーザのミス入力が多いと考えられる場合、ユーザの修正結果に応じて、補正ベクトルを変更する。この場合、描画開始位置に対して、操作開始位置を変更できるようにしておく。そして、例えば、描画開始位置に対して「最初の入力した操作開始位置」よりも「修正の際の操作開始位置」を遠くに変更する操作が行われた操作履歴を記録する。そして、このような変更回数が所定回数を超えた場合、補正ベクトルを大きくするように変更してもよい。これにより、ユーザ毎の描画特性に応じた描画が可能となる。
また、描画エリア220の広さや、描画に用いる対象(ペンの太さ)や、描画対象の大きさ(狭い領域か、広い領域か)に応じて、補正ベクトルを変更してもよい。これにより、より快適な描画環境の提供と、柔軟な入力が可能になる。
・上記第2の実施形態では、ユーザ端末10の制御部11は、タッチ位置の特定処理を実行する(ステップS2−3)。そして、ユーザ端末10の制御部11は、オブジェクト周辺内かどうかについての判定処理(ステップS2−4)、移動操作かどうかについての判定処理(ステップS2−7)を実行する。これに代えて、ポインターモード処理と同様に、最初のタップで操作(変形、移動、回転)を決定し、2回目のタッチによるスライド操作により、スライド軌跡に応じた変形量、移動量、回転角を決定するようにしてもよい。これにより、操作時の指が邪魔にならず、オブジェクトを設定することができる。
・上記第3、第4の実施形態では、描画エリアを用いて、線画や図形の配色を決定する。ここで、スポイト機能により取り込む属性は配色に限定されるものではない。例えば、模様等のような視覚的な属性のみならず、オブジェクトに割り当てられた名称等の属性を取り込むようにしてもよい。
・上記第1の実施形態では、ユーザ端末10の制御部11は、描画開始位置の設定処理を実行する(ステップS1−2)。ここでは、タッチパネルディスプレイ14上でタップを行なう。また、上記第3の実施形態では、ユーザ端末10の制御部11は、長押し検知処理を実行する(ステップS3−1)。上記第5の実施形態では、最初のタップ位置に始点設定処理(ステップS5−2)、2回目のタッチの検知処理(ステップS5−3)を実行する。これらの各機能を起動する操作は、他の操作と識別できるものであれば、操作方法は限定されるものではない。例えば、第5の実施形態では、タッチ位置〜タッチオフ位置により始点設定、終点設定を行なうようにしてもよい。
・上記各実施形態では、描画したオブジェクトを含む画像を、ソーシャルネットワークサービスに利用する。描画の適用対象は、ソーシャルネットワークサービスに限定されるものではなく、線画や図形を利用するアプリケーション(ゲーム等)に用いることが可能である。
・上記各実施形態では、一つのアプリケーションプログラムを起動させることにより、制御部11を、描画処理部114、SNS処理部115として機能させる。ここで、描画処理部114とSNS処理部115とは、別のアプリケーションプログラムにより機能させるようにしてもよい。具体的には、描画処理プログラムにより、描画処理部114を起動し、描画処理部114により生成されたオブジェクトを、他のアプリケーションプログラムの機能に提供するようにしてもよい。
・上記各実施形態では、サーバ装置が生成したデータに基づいて、ユーザ端末に表示させるウェブ表示を行なう。ここで、描画を行なうための画面の少なくとも一部(例えば、ツールメニュー210や描画エリア220)を、ユーザ端末にインストールされているネイティブアプリケーションによって表示させるネイティブ表示としてもよい。また、ユーザ端末10及びサーバ装置のそれぞれが処理の一部を担うハイブリッドアプリケーションとすることもできる。
10…ユーザ端末、11…制御部、111…表示制御部、112…タッチ制御部、113…アプリケーション実行部、114…描画処理部、115…SNS処理部、12…メモリ、13…通信部、14…タッチパネルディスプレイ、241,244…線画、300,420,430…オブジェクト。

Claims (10)

  1. 制御部と入力操作が可能な表示部とを備えた描画処理装置を制御する方法であって、
    前記制御部が、
    描画操作について、前記表示部での入力位置に応じて線画の描画開始位置を特定し、
    前記描画開始位置を特定するための入力操作が解除された後に入力された任意の操作開始位置からの軌跡に応じて前記描画開始位置から描画された線画のオブジェクトを生成することを特徴とする描画処理方法。
  2. 前記制御部が、
    描画操作について、オブジェクトの選択を検知した場合、オブジェクトの配置位置を特定し、
    前記配置位置から離れた位置の操作開始位置からの軌跡に応じて、前記オブジェクトの配置を決定することを特徴とする請求項1に記載の描画処理方法。
  3. 描画操作について、オブジェクトの部分消去指示を検知した場合、消去開始位置を特定し、
    前記表示部の入力位置に応じた任意の操作開始位置からの軌跡に応じて前記消去開始位置から前記オブジェクトの部分消去を行なうことを特徴とする請求項1又は2に記載の描画処理方法。
  4. 前記オブジェクトの配置に対して、複数の操作エリアが設定されており、各操作エリアの選択に応じて、前記オブジェクトに対して異なる操作を実行することを特徴とする請求項2又は3に記載の描画処理方法。
  5. 前記オブジェクト内の基準位置に対して、操作開始位置からの軌跡の広がり角度を算出し、前記広がり角度に基づいて、前記オブジェクトの回転操作を実行することを特徴とする請求項2〜4の何れか一項に記載の描画処理方法。
  6. 前記表示部において操作された操作位置のオブジェクトの属性を特定し、属性表示領域に表示し、
    操作オフの検知時に、前記属性を描画時の属性として設定することを特徴とする請求項1〜5の何れか一項に記載の描画処理方法。
  7. 前記操作位置の周囲に属性候補を出力し、
    操作オフの方向に応じて、前記属性候補の中から描画時に用いる属性を決定することを特徴とする請求項6に記載の描画処理方法。
  8. 始点と終点とが設定されたオブジェクトが選択された場合、
    前記表示部の操作位置に前記始点を設定し、
    スライド操作された操作位置に前記終点を設定して、前記オブジェクトを前記表示部に出力し、
    操作オフ時に前記オブジェクトの形状を決定することを特徴とする請求項1〜7の何れか一項に記載の描画処理方法。
  9. 制御部と入力操作が可能な表示部とを備えた描画処理装置を制御するプログラムであって、
    前記制御部を、
    描画操作について、前記表示部での入力位置に応じて線画の描画開始位置を特定し、
    前記描画開始位置を特定するための入力操作が解除された後に入力された任意の操作開始位置からの軌跡に応じて前記描画開始位置から描画された線画のオブジェクトを生成する手段として機能させることを特徴とする描画処理プログラム。
  10. 制御部と入力操作が可能な表示部とを備えた描画処理装置であって、
    前記制御部が、
    描画操作について、前記表示部での入力位置に応じて線画の描画開始位置を特定し、
    前記描画開始位置を特定するための入力操作が解除された後に入力された任意の操作開始位置からの軌跡に応じて前記描画開始位置から描画された線画のオブジェクトを生成することを特徴とする描画処理装置。
JP2016203954A 2016-10-17 2016-10-17 描画処理方法、描画処理プログラム及び描画処理装置 Active JP6313395B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016203954A JP6313395B1 (ja) 2016-10-17 2016-10-17 描画処理方法、描画処理プログラム及び描画処理装置
US15/785,150 US20180121076A1 (en) 2016-10-17 2017-10-16 Drawing processing method, drawing program, and drawing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203954A JP6313395B1 (ja) 2016-10-17 2016-10-17 描画処理方法、描画処理プログラム及び描画処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018050572A Division JP6863918B2 (ja) 2018-03-19 2018-03-19 制御プログラム、制御方法及び情報処理装置

Publications (2)

Publication Number Publication Date
JP6313395B1 true JP6313395B1 (ja) 2018-04-18
JP2018067068A JP2018067068A (ja) 2018-04-26

Family

ID=61968222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203954A Active JP6313395B1 (ja) 2016-10-17 2016-10-17 描画処理方法、描画処理プログラム及び描画処理装置

Country Status (2)

Country Link
US (1) US20180121076A1 (ja)
JP (1) JP6313395B1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11204662B2 (en) * 2017-01-17 2021-12-21 Hewlett-Packard Development Company, L.P. Input device with touch sensitive surface that assigns an action to an object located thereon
JP6389581B1 (ja) * 2018-05-16 2018-09-12 株式会社Cygames プログラム、電子装置、及び方法
KR102536263B1 (ko) * 2018-08-02 2023-05-25 삼성전자주식회사 스타일러스 펜의 입력을 표시하기 위한 방법 및 그 전자 장치
CN109377536A (zh) * 2018-09-19 2019-02-22 广州盖特软件有限公司 一种线条移动绘制的方法及装置
CN112181263B (zh) * 2019-07-02 2024-04-09 三六零科技集团有限公司 触摸屏的绘画操作响应方法、装置及计算设备
JP2021018668A (ja) * 2019-07-22 2021-02-15 ヤフー株式会社 提供装置、提供方法、および提供プログラム
CN115136112A (zh) * 2020-10-30 2022-09-30 京东方科技集团股份有限公司 人机交互方法、装置和系统,以及计算机可读存储介质
CN112631476B (zh) * 2020-12-29 2022-04-12 杭州晨安科技股份有限公司 一种基于sdl库的摄像机功能菜单显示方法
CN113485590A (zh) * 2021-04-16 2021-10-08 维沃移动通信有限公司 触控操作方法及装置
CN114035739B (zh) * 2021-11-12 2023-12-29 网易(杭州)网络有限公司 图形绘制方法和装置、计算机可读存储介质、电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287272A (ja) * 1995-04-19 1996-11-01 Toshiba Corp 文書作成装置及び面図形配置方法
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
KR100891099B1 (ko) * 2007-01-25 2009-03-31 삼성전자주식회사 사용성을 향상시키는 터치 스크린 및 터치 스크린에서 사용성 향상을 위한 방법
WO2010032354A1 (ja) * 2008-09-22 2010-03-25 日本電気株式会社 画像オブジェクト制御システム、画像オブジェクト制御方法およびプログラム
JP4752921B2 (ja) * 2009-01-28 2011-08-17 ソニー株式会社 情報処理装置、アニメーション付加方法、及びプログラム
JP2011154664A (ja) * 2010-01-26 2011-08-11 Witswell Consulting & Services Inc 筆跡インク表示方法および装置
US20120023426A1 (en) * 2010-07-22 2012-01-26 Mediatek Inc. Apparatuses and Methods for Position Adjustment of Widget Presentations
US20120210261A1 (en) * 2011-02-11 2012-08-16 Apple Inc. Systems, methods, and computer-readable media for changing graphical object input tools
US8643616B1 (en) * 2011-07-29 2014-02-04 Adobe Systems Incorporated Cursor positioning on a touch-sensitive display screen
JP5713400B2 (ja) * 2011-09-26 2015-05-07 Kddi株式会社 ポインタを用いた指による操作が可能なユーザインタフェース装置、動作発動方法及びプログラム
JP5374564B2 (ja) * 2011-10-18 2013-12-25 株式会社ソニー・コンピュータエンタテインメント 描画装置、描画制御方法、及び描画制御プログラム
JP2014203322A (ja) * 2013-04-08 2014-10-27 船井電機株式会社 描画装置、描画方法、及び描画プログラム
US9477403B2 (en) * 2013-11-26 2016-10-25 Adobe Systems Incorporated Drawing on a touchscreen
JP2016095716A (ja) * 2014-11-14 2016-05-26 株式会社コーエーテクモゲームス 情報処理装置、情報処理方法、ならびに、プログラム
JP6437299B2 (ja) * 2014-12-24 2018-12-12 シャープ株式会社 情報処理装置、情報処理プログラムおよび情報処理方法
JP2016133978A (ja) * 2015-01-19 2016-07-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20180121076A1 (en) 2018-05-03
JP2018067068A (ja) 2018-04-26

Similar Documents

Publication Publication Date Title
JP6313395B1 (ja) 描画処理方法、描画処理プログラム及び描画処理装置
KR100831721B1 (ko) 휴대단말기의 디스플레이 장치 및 방법
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US9870144B2 (en) Graph display apparatus, graph display method and storage medium
EP2154603A2 (en) Display apparatus, display method, and program
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
CN108319410B (zh) 用于控制媒体装置中的菜单的方法和设备
CN104239266B (zh) 图形显示装置以及图形显示方法
KR20100130671A (ko) 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법
JP2004078693A (ja) 視野移動操作方法
JP2011134278A (ja) 情報処理装置およびポインティング制御方法
CN101315593A (zh) 触控式移动运算装置与应用于其上的触控方法
CN103270485A (zh) 触摸输入处理装置、信息处理装置及触摸输入控制方法
JP2014229017A (ja) 電子機器、位置指定方法及びプログラム
JP2010218286A (ja) 情報処理装置およびプログラムおよび表示方法
JP5875262B2 (ja) 表示制御装置
JP2009098990A (ja) 表示装置
JP6863918B2 (ja) 制御プログラム、制御方法及び情報処理装置
JP6584876B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
JP2020061193A (ja) 制御プログラム、制御方法及び情報処理装置
JP6670345B2 (ja) 情報処理装置、情報処理プログラムおよび情報処理方法
JP2018106434A (ja) ユーザーインターフェイス装置及び電子機器
JP2001195170A (ja) 携帯型電子機器、入力制御装置、及び記憶媒体
KR101260016B1 (ko) 스킨형 인터페이스를 이용한 포인터 인터페이스 구현 방법 및 이를 구현하는 터치스크린 기기
JP4143529B2 (ja) 情報入力装置、情報入力方法、コンピュータプログラム及びコンピュータ読み取り可能な記憶媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20161226

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180322

R150 Certificate of patent or registration of utility model

Ref document number: 6313395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250