JP2000163443A - Portable information devices and information storage media - Google Patents
Portable information devices and information storage mediaInfo
- Publication number
- JP2000163443A JP2000163443A JP35072998A JP35072998A JP2000163443A JP 2000163443 A JP2000163443 A JP 2000163443A JP 35072998 A JP35072998 A JP 35072998A JP 35072998 A JP35072998 A JP 35072998A JP 2000163443 A JP2000163443 A JP 2000163443A
- Authority
- JP
- Japan
- Prior art keywords
- information
- search
- finger
- page
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 claims description 105
- 210000003811 finger Anatomy 0.000 description 124
- 238000000034 method Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 38
- 230000008569 process Effects 0.000 description 35
- 210000003813 thumb Anatomy 0.000 description 21
- 238000003780 insertion Methods 0.000 description 13
- 230000037431 insertion Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 10
- 230000004308 accommodation Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000009467 reduction Effects 0.000 description 8
- 230000005057 finger movement Effects 0.000 description 4
- 210000005224 forefinger Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Landscapes
- Calculators And Similar Devices (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
(57)【要約】
【課題】 ユーザーにとって使い勝手のよいヒューマン
インターフェイスで検索操作を実現できる電子ブックや
携帯情報機器及びこれらに使用する情報記憶媒体を提供
することである。
【解決手段】 複数の検索項目が表示された画像を表示
可能な表示部を含む電子ブックである。複数の検索項目
のうちの少なくとも2つを、同時又は所定時間内に指で
接触すると、複数の検索項目に対応する検索条件と論理
積の関係を有する情報を検索する。複数の検索条件と論
理積の関係を有する情報がない場合には、論理和及び論
理和と論理積の組み合わせの少なくとも一方を有する情
報を検索する。検索条件を満たす情報が記載された先頭
ページを表示する。
(57) [Summary] [PROBLEMS] To provide an electronic book, a portable information device, and an information storage medium used for the same, which can realize a search operation with a human interface that is easy for a user to use. An electronic book includes a display unit capable of displaying an image on which a plurality of search items are displayed. When at least two of the plurality of search items are touched with a finger at the same time or within a predetermined time, information having a logical product relationship with search conditions corresponding to the plurality of search items is searched. When there is no information having a relationship between a plurality of search conditions and a logical product, information having at least one of a logical sum and a combination of a logical sum and a logical product is searched. Displays the first page that contains information that satisfies the search conditions.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、携帯情報機器、電
子ブック及びこれらに使用される情報記憶媒体に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a portable information device, an electronic book, and an information storage medium used therein.
【0002】[0002]
【背景技術及び発明が解決しようとする課題】近年、文
字、画像、音声などの情報を、CD−ROMやFDなど
の電子メディアに記録し、書籍のように利用する出版形
態である電子ブック、携帯情報機器、が実用化されてい
る。2. Description of the Related Art In recent years, electronic books, which are publishing forms in which information such as characters, images, and sounds are recorded on electronic media such as CD-ROMs and FDs and used like books, Portable information devices have been put to practical use.
【0003】係る電子ブックや携帯情報機器は紙の本で
はいきづまる物理的な限界を解消することができる。ま
た非直線的読書スタイルも可能であり、読者はそれぞれ
の自由な視点から多角的に読書を楽しむことができる。[0003] Such an electronic book or portable information device can solve the physical limitations that paper books have to deal with. A non-linear reading style is also possible, and readers can enjoy reading from various perspectives.
【0004】さらに出版に金や手間がかからないため、
だれもが手軽に出版することができたり、購読者が限定
されるような専門的なものが出版できたりというような
出版の理想像を実現することも可能となる。[0004] Furthermore, since publishing does not require much money or labor,
It is also possible to realize the ideal image of publishing such that anyone can publish easily or publish a specialized one with limited subscribers.
【0005】係る電子ブックや携帯情報機器では、情報
の検索、活用する上で通常の紙の本に比べて格段に充実
した機能を実現することができる。例えば、書籍では目
次等を利用して必要な情報がどのページに記載されてい
るかを確認して、該当ページを参照することになるが、
もし必要な情報が分散して記載されているような場合に
は、情報の記載箇所を探すのが大変である。ところが電
子ブックや携帯情報機器では、このような場合でも自動
的に検索してくれるため、ユーザーにとって、大変使い
勝手のよいものとなる。[0005] Such an electronic book or portable information device can realize much more enhanced functions in retrieving and utilizing information than a normal paper book. For example, in a book, you use a table of contents to check which page contains the necessary information, and then refer to that page.
If necessary information is described in a dispersed manner, it is difficult to find a place where the information is described. However, in an electronic book or a portable information device, even in such a case, the search is automatically performed, so that it is very convenient for the user.
【0006】図43は、電子ブック等において複数の検
索条件を指定して検索する際の一般的な情報検索の一例
を説明するための図である。検索項目が表示されている
目次画面910等で、ユーザーは、自己が検索したい検
索項目を選択する。例えばユーザーがA1を選択入力す
ると、検索条件A1を満足するA1情報表示画面920
が表示される。FIG. 43 is a diagram for explaining an example of a general information search when performing a search by designating a plurality of search conditions in an electronic book or the like. On the table of contents screen 910 or the like on which a search item is displayed, the user selects a search item that the user wants to search. For example, when the user selects and inputs A1, the A1 information display screen 920 that satisfies the search condition A1
Is displayed.
【0007】A1情報表示画面920でも更に検索した
い項目の選択入力が可能に構成されており、ユーザーは
自己が検索したい検索項目を選択できる。例えばユーザ
ーがB1を選択入力すると、検索条件A1且つB1を満
足する情報表示画面930が出力される。このようにユ
ーザーは自己が希望する検索条件に対応する選択項目を
順次選択入力することにより複数の選択条件を満足する
情報に行き着くことができる。[0007] The A1 information display screen 920 is also configured so that an item to be searched can be further selected and input, and the user can select a search item to be searched. For example, when the user selects and inputs B1, an information display screen 930 that satisfies the search conditions A1 and B1 is output. In this way, the user can arrive at information that satisfies the plurality of selection conditions by sequentially selecting and inputting the selection items corresponding to the search conditions desired by the user.
【0008】しかし係る方法では、ユーザーが所望の情
報に行き着くまで複数の操作が必要となるため、迅速な
検索を行うことができないという問題点があった。[0008] However, such a method has a problem that a quick search cannot be performed because a plurality of operations are required until a user reaches desired information.
【0009】また、画面に沿った直列的な検索条件の指
定しかできないので、ユーザーにとって使い勝手のよい
ものとはいえない。[0009] Further, since it is only possible to specify search conditions in series along the screen, it cannot be said that it is convenient for the user.
【0010】本発明は、以上のような課題に鑑みてなさ
れたものであり、その目的とするところは、ユーザーに
とって使い勝手のよいヒューマンインターフェイスで検
索操作を実現できる電子ブックや携帯情報機器及びこれ
らに使用する情報記憶媒体を提供することである。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and has as its object to provide an electronic book and a portable information device capable of realizing a search operation with a human interface which is easy for a user to use. The purpose is to provide an information storage medium to be used.
【0011】[0011]
【課題を解決するための手段】本発明は、複数の検索条
件に対応した検索項目を表示する表示部を含む携帯情報
機器であって、表示された複数の検索項目のうちの少な
くとも2つを、同時又は所定時間内に指で接触すること
により複数の検索条件を指定した検索実行を入力する検
索入力手段と、同時又は所定時間内に指で接触された複
数の検索項目に対応する検索条件と論理積の関係を有す
る情報を検索する情報検索手段と、を含み、前記検索入
力手段が、表示部に接触させた指の位置を検出する手段
と、検出された指の位置に基づき、指で接触された検索
項目を判断する手段と、を含むことを特徴とする。SUMMARY OF THE INVENTION The present invention is a portable information device including a display unit for displaying search items corresponding to a plurality of search conditions, wherein at least two of the displayed plurality of search items are displayed. A search input means for inputting a search execution specifying a plurality of search conditions by touching with a finger at the same time or within a predetermined time; and a search condition corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time And information searching means for searching for information having a logical product relationship, wherein the search input means detects a position of a finger that has been brought into contact with a display unit, and a finger based on the detected position of the finger. Means for determining the search item touched in step (1).
【0012】前記指の接触位置を検出するための手段
は、例えば表示部に透明なタッチパネル等を重ねること
により構成することができる。[0012] The means for detecting the contact position of the finger can be constituted, for example, by overlaying a transparent touch panel or the like on the display unit.
【0013】本発明によれば指により検索操作の実行指
示や検索条件を入力できるため、筐体にボタンやキーボ
ード等のハードを設ける必要がなく、よりコンパクトな
携帯情報機器を提供することができる。According to the present invention, a search operation execution instruction and a search condition can be input by a finger, so that there is no need to provide hardware such as a button or a keyboard in a housing, and a more compact portable information device can be provided. .
【0014】また従来は、1つの検索項目に接触するこ
とにより当該検索項目に対応した検索条件での検索実行
の指示しかできなかった。しかし、本発明によれば、ユ
ーザーが表示部に表示された2つ以上の検索項目を同時
又は所定時間内に指で接触すると、前記2つ以上の検索
項目と論理積の関係を有する情報を検索して検索結果を
表示部に出力させることができる。このように本発明に
よればユーザーは1回の操作で2つ以上の検索条件を入
力すると共に検索実行指示を行うことができる。[0014] Conventionally, by touching one search item, only an instruction to execute a search under a search condition corresponding to the search item can be given. However, according to the present invention, when the user touches two or more search items displayed on the display unit simultaneously or with a finger within a predetermined time, information having a logical product relationship with the two or more search items is displayed. The search can be performed and the search result can be output to the display unit. Thus, according to the present invention, a user can input two or more search conditions and give a search execution instruction by one operation.
【0015】従って本発明によれば、複雑な検索操作の
指入力のみで簡単迅速に行える使い勝手のよいヒューマ
ンインターフェイス有する携帯情報機器を提供すること
ができる。Therefore, according to the present invention, it is possible to provide a portable information device having an easy-to-use human interface that can be simply and quickly performed only by finger input of a complicated search operation.
【0016】また本発明は、前記情報検索手段が、同時
又は所定時間内に指で接触された複数の検索項目に対応
する検索条件と論理積の関係を有する情報がない場合に
は、論理和及び論理和と論理積の組み合わせの少なくと
も一方を有する情報を検索することを特徴とする。Further, according to the present invention, when there is no information having a logical product relation with a search condition corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time, the information search means may perform a logical sum operation. And searching for information having at least one of a combination of a logical sum and a logical product.
【0017】論理和の情報を出力する場合とは、例えば
検索条件Aと検索条件Bの論理積の情報をA∩Bとする
と、{A∩B}=Φであれば{A∪B}の情報を出力す
る場合等である。また、論理和及び論理和と論理積の組
み合わせを出力する場合とは、例えば検索条件Aと検索
条件Bと検索条件Cの論理積の情報をA∩B∩Cとする
と{A∩B∩C}=Φであれば{A∪B}∩Cの情報や
{A∩B}∪Cの情報を出力する場合を含む。When the information of the logical sum is output, for example, if the information of the logical product of the search condition A and the search condition B is A∩B, if {A∩B} = Φ, For example, when outputting information. Further, the case of outputting a logical sum or a combination of a logical sum and a logical product means, for example, that information of a logical product of the search condition A, the search condition B, and the search condition C is A∩B∩C. If} = Φ, the case of outputting information of {A∪B} ∩C or information of {A∩B} ∪C is included.
【0018】このように、複数の検索条件と論理積の関
係にある情報がない場合には、自動的に論理和及び論理
和と論理積の組み合わせの少なくとも一方を有する情報
を検索するように構成すれば、複数の検索条件と最も適
切な関係を有する情報を検索できる。従ってユーザーは
複数の検索項目にタッチするという簡単な操作のみで、
最適な検索情報を取得することができる携帯情報機器を
提供することができる。As described above, when there is no information having a logical product relationship with a plurality of search conditions, information having at least one of a logical sum and a combination of a logical sum and a logical product is automatically searched. Then, information having the most appropriate relationship with a plurality of search conditions can be searched. Therefore, the user simply touches multiple search items,
A portable information device capable of acquiring optimal search information can be provided.
【0019】また本発明は、前記記載の携帯情報機器で
あって、電子ブックとして使用されることを特徴とす
る。According to the present invention, there is provided the portable information device described above, wherein the portable information device is used as an electronic book.
【0020】即ち本発明は、複数の検索条件に対応した
検索項目を表示する表示部を含む電子ブックであって、
表示された複数の検索項目のうちの少なくとも2つを、
同時又は所定時間内に指で接触することにより複数の検
索条件を指定した検索実行を入力する検索入力手段と、
同時又は所定時間内に指で接触された複数の検索項目に
対応する検索条件と論理積の関係を有する情報を検索す
る情報検索手段と、を含み、前記検索入力手段が、表示
部に接触させた指の位置を検出する手段と、検出された
指の位置に基づき、指で接触された検索項目を判断する
手段と、を含むことを特徴とする。That is, the present invention is an electronic book including a display unit for displaying search items corresponding to a plurality of search conditions,
At least two of the displayed search items are
Search input means for inputting a search execution specifying a plurality of search conditions by touching with a finger simultaneously or within a predetermined time,
Information search means for searching for information having a logical product relationship with a search condition corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time, and wherein the search input means contacts the display unit. And a means for determining a search item touched by the finger based on the detected position of the finger.
【0021】また本発明の電子ブックにおいて、前記情
報検索手段が、同時又は所定時間内に指で接触された複
数の検索項目に対応する検索条件と論理積の関係を有す
る情報がない場合には、論理和及び論理和と論理積の組
み合わせの少なくとも一方を有する情報を検索すること
を特徴とする。In the electronic book of the present invention, if the information search means does not have information having a logical product relationship with search conditions corresponding to a plurality of search items touched by a finger simultaneously or within a predetermined time, , Or information having at least one of a combination of a logical sum and a logical product.
【0022】本発明によれば、複雑な検索操作の指入力
のみで簡単迅速に行える使い勝手のよいヒューマンイン
ターフェイス有する電子ブックを提供することができ
る。According to the present invention, it is possible to provide an electronic book having an easy-to-use human interface that can be easily and quickly performed only by finger input of a complicated search operation.
【0023】また本発明は、ページ番号が付与された情
報をページ単位に画像情報として出力するページ画像出
力手段を更に含み、前記ページ画像出力手段は、検索条
件を満たす情報が記載された先頭ページの画像を出力す
ることを特徴とする。Further, the present invention further comprises a page image output means for outputting the information to which the page number is assigned as image information in page units, wherein the page image output means comprises a first page on which information satisfying a search condition is described. Is output.
【0024】通常電子ブックはページ単位で画面に情報
の出力を行う。本発明によれば、検索結果が記載された
情報の先頭ページを表示してくれるため、ユーザーは目
次をでページを引く要領で使いこなすことができ便利で
ある。また通常一連の情報がひと続きで掲載されている
ため、検索結果が1画面に収まらない場合には、ユーザ
ーは次ページ以降を参照することで、所望の情報を得る
ことができる。Normally, an electronic book outputs information to a screen in page units. According to the present invention, the first page of the information in which the search result is described is displayed, so that the user can use the table of contents in a manner similar to drawing the table of contents, which is convenient. In addition, since a series of information is normally posted in a row, if the search result does not fit on one screen, the user can obtain desired information by referring to the next page and subsequent pages.
【0025】また本発明は、複数の検索条件に対応した
検索項目を出力する表示部を含む携帯情報機器及び電子
ブックの少なくとも一方に使用する情報記憶媒体であっ
て、表示された複数の検索項目のうちの少なくとも2つ
を、同時又は所定時間内に指で接触することにより複数
の検索条件を指定した検索実行を入力するための情報
と、同時又は所定時間内に指で接触された複数の検索項
目に対応する検索条件と論理積の関係を有する情報を検
索するための情報とを含み、前記検索実行を入力するた
めの情報が、表示部に接触させた指の位置を検出するた
めの情報と、検出された指の位置に基づき、指で接触さ
れた検索項目を判断するための情報と、を含むことを特
徴とする。According to the present invention, there is provided an information storage medium for use in at least one of a portable information device and an electronic book including a display unit for outputting search items corresponding to a plurality of search conditions, wherein the plurality of displayed search items are provided. Information for inputting a search execution specifying a plurality of search conditions by simultaneously touching at least two of them with a finger within a predetermined time, and a plurality of pieces of information touched by a finger at the same time or within a predetermined time. Information for searching for information having a logical product relationship with a search condition corresponding to a search item, wherein the information for inputting the execution of the search is for detecting a position of a finger touching a display unit. It is characterized by including information and information for judging a search item touched by a finger based on the detected position of the finger.
【0026】また本発明の情報記憶媒体において、同時
又は所定時間内に指で接触された複数の検索項目に対応
する検索条件と論理積の関係を有する情報がない場合に
は、論理和及び論理和と論理積の組み合わせの少なくと
も一方を有する情報を検索するように構成することが好
ましい。In the information storage medium of the present invention, if there is no information having a logical product relation with a search condition corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time, a logical sum and a logical It is preferable to search for information having at least one of a combination of a sum and a logical product.
【0027】また本発明の情報記憶媒体において、ペー
ジ番号が付与された情報をページ単位に画像情報として
出力するための情報を更に含み、当該情報は、検索条件
を満たす情報が記載された先頭ページの画像を出力する
ための情報を含むよう構成することが好ましい。In the information storage medium of the present invention, the information storage medium further includes information for outputting page numbered information as image information in page units, and the information includes a first page in which information satisfying a search condition is described. It is preferable to include information for outputting the image.
【0028】[0028]
【発明の実施の形態】1.本発明の特徴 本発明の特徴は、表示された複数の検索項目のうちの少
なくとも2つを、同時又は所定時間内に指で接触する
と、接触された複数の検索項目に対応する検索条件と論
理積の関係を有する情報の検索が行える点にある。BEST MODE FOR CARRYING OUT THE INVENTION Features of the present invention The feature of the present invention is that when at least two of a plurality of displayed search items are touched with a finger simultaneously or within a predetermined time, search conditions and logic corresponding to the plurality of touched search items are determined. The point is that information having a product relationship can be searched.
【0029】図1は、本発明の特徴的機能を有する形態
情報機器や電子ブックの機能ブロック図である。FIG. 1 is a functional block diagram of a form information device or an electronic book having a characteristic function of the present invention.
【0030】指位置検出部10は、ユーザーが表示部上
に接触した指の位置を検出するためのものである。指位
置検出部10は、表示部60に透明なタッチパネル等を
重ねて構成されている。指位置検出部10で得られた検
出データは処理部20へ入力される。The finger position detector 10 detects the position of the finger touched by the user on the display. The finger position detection unit 10 is configured by overlapping a transparent touch panel or the like on the display unit 60. The detection data obtained by the finger position detection unit 10 is input to the processing unit 20.
【0031】処理部20は、前記検出データ、所与のプ
ログラム等基づいて情報の検索を行い、検索情報が表示
された画像を生成する処理を行うものである。この処理
部20の機能は、CPU(CISC型、RISC型)、
DSP、カスタム(ゲートアレーなど)IC、メモリな
どのハードウエアにより実現できる。The processing section 20 searches for information based on the detected data, a given program, and the like, and performs processing for generating an image on which the search information is displayed. The function of this processing unit 20 is a CPU (CISC type, RISC type),
It can be realized by hardware such as a DSP, a custom (gate array or the like) IC, and a memory.
【0032】情報記憶媒体70は、プログラムやデータ
を記憶するためのものである。この情報記憶媒体70の
機能は、CD−ROM、カセット、ICカード、MO、
FD、DVD、ハードディスク、メモリ等のハードウエ
アにより実現できる。処理部20は、この情報記憶媒体
70からのプログラム、データに基づいて種々の処理を
行うことになる。The information storage medium 70 is for storing programs and data. The functions of the information storage medium 70 are as follows: CD-ROM, cassette, IC card, MO,
It can be realized by hardware such as FD, DVD, hard disk, and memory. The processing unit 20 performs various processes based on the programs and data from the information storage medium 70.
【0033】処理部20は、検索項目判断部30、情報
検索部40、画像生成部50を含んで構成される。The processing section 20 includes a search item determining section 30, an information searching section 40, and an image generating section 50.
【0034】検索項目判断部30は、指位置検出部10
が検出した指の接触位置に基づきユーザーがタッチした
検索項目を判断する。具体的には、表示画面上の検索項
目表示位置と、ユーザーの指の接触位置を比較して、ユ
ーザーの指がタッチした検索項目を判断する。The search item judging section 30 includes the finger position detecting section 10
Judge the search item touched by the user based on the detected contact position of the finger. Specifically, the search item display position on the display screen is compared with the contact position of the user's finger to determine the search item touched by the user's finger.
【0035】情報検索部40は、検索項目判断部30で
判断された検索項目に対応する検索条件で検索処理を行
うものである。情報検索部40は、同時又は所定時間内
に複数の検索項目が指で接触された場合には、接触され
た複数の検索項目に対応する検索条件と論理積の関係を
有する情報の検索を行う。The information search unit 40 performs a search process using search conditions corresponding to the search item determined by the search item determination unit 30. When a plurality of search items are touched with a finger at the same time or within a predetermined time, the information search unit 40 searches for information having a logical product relationship with search conditions corresponding to the plurality of touched search items. .
【0036】また同時又は所定時間内に指で接触された
複数の検索項目に対応する検索条件と論理積の関係を有
する情報がない場合には、論理和及び論理和と論理積の
組み合わせの少なくとも一方を有する情報を検索する。If there is no information having a relation between a search condition and a logical product corresponding to a plurality of search items touched with a finger at the same time or within a predetermined time, at least one of a logical sum and a combination of a logical sum and a logical product is used. Search for information that has one.
【0037】画像生成部50は、当該検索情報が記載さ
れた先頭ページの画像を生成し、表示部に出力する。The image generation unit 50 generates an image of the first page on which the search information is described, and outputs the image to the display unit.
【0038】2.本発明の好適な実施形態 以下、本発明の好適な実施形態について電子ブックを例
にとり詳細に説明する。2. Preferred Embodiment of the Present Invention Hereinafter, a preferred embodiment of the present invention will be described in detail using an electronic book as an example.
【0039】(1)電子ブックの外観 図2(A)(B)(C)は本実施の形態の電子ブックの
外観図を示している。図2(A)の110は本実施の形
態の電子ブックを閉じた状態の外観正面図であり、12
0は側面図である。130は、本実施の形態の電子ブッ
クを開いた状態を表した図である。本実施の形態の電子
ブックは携帯に便利なように、110のように電子ブッ
クを閉じた状態で文庫本程度の大きさになるよう構成さ
れている。(1) Appearance of Electronic Book FIGS. 2A, 2B, and 2C are external views of an electronic book according to the present embodiment. Reference numeral 110 in FIG. 2A is an external front view in a state where the electronic book of the present embodiment is closed.
0 is a side view. Reference numeral 130 denotes a state in which the electronic book of the present embodiment is opened. The electronic book according to the present embodiment is configured to be approximately the size of a paperback book with the electronic book closed, as shown at 110, for convenience in carrying.
【0040】図2(B)は、電子ブックに使用するソフ
トを納めたディスク140を示した図である。本実施の
形態の電子ブックは図2(C)に示すように、電子ブッ
ク本体150に各種ソフトを納めたディスク140をセ
ットすることにより、各種ソフトの内容に対応した情報
を提供することができる。FIG. 2B is a diagram showing a disk 140 containing software used for an electronic book. As shown in FIG. 2C, the electronic book according to the present embodiment can provide information corresponding to the contents of various software by setting a disk 140 containing various software in the electronic book main body 150. .
【0041】(2)指動作による地図画像の操作処理 次に、本実施の形態の電子ブックにおける指動作による
地図画像の操作の具体例について説明する。(2) Operation of Map Image Operation by Finger Movement Next, a specific example of operation of a map image by finger movement in the electronic book of the present embodiment will be described.
【0042】図3は、旅行情報ソフトをセットした場合
に表示される画面例を表した図である。画面中央は主に
情報表示領域として、画面の端領域は主に検索用タグ領
域やツールバー表示領域として使用される。情報表示領
域には、本の見開き1ページ分に記載されている内容が
画像情報として表示されている。また検索用タグ領域に
は検索用タグ210〜230等が表示されている。ま
た、表示領域の左右の端には「本の厚み」を模した画像
240、242が表示されている。FIG. 3 is a diagram showing an example of a screen displayed when travel information software is set. The center of the screen is mainly used as an information display area, and the end area of the screen is mainly used as a search tag area and a toolbar display area. In the information display area, the content described in one page spread of the book is displayed as image information. In the search tag area, search tags 210 to 230 and the like are displayed. In addition, images 240 and 242 imitating “book thickness” are displayed at the left and right ends of the display area.
【0043】 地図の拡大操作 ユーザーが指250で検索用タグの「地図」220の欄
をタッチすると、画面内に、「インド」の全体地図26
0が表示される(図4参照)。「ボンベイ」付近の情報
を得たい場合には、図6(B)に示すように親指と人差
し指を近づけた状態で画面上「ボンベイ」のあたりに親
指と人差し指をおいて、親指と人差し指を遠ざける方向
に動かす動作(地図の拡大ジェスチャー)を行う(図5
参照)。このようにすると、親指と人差し指の移動履歴
に応じて拡大された地図画像が表示される。即ち、親指
と人差し指の離れる度合いが大きい程、縮尺が小さくよ
り詳細な地図が表示される。Map Enlargement Operation When the user touches the “map” 220 field of the search tag with the finger 250, the entire map 26 of “India” is displayed on the screen.
0 is displayed (see FIG. 4). To obtain information near “Bombay”, place the thumb and forefinger around “Bombay” on the screen with the thumb and forefinger close as shown in FIG. Performing the operation of moving in the direction (enlargement gesture of the map) (FIG. 5)
reference). By doing so, a map image enlarged according to the movement history of the thumb and the index finger is displayed. That is, the larger the degree of separation between the thumb and the index finger, the smaller the scale and the more detailed the map is displayed.
【0044】このとき、親指と人差し指を遠ざける動作
にリアルタイムに対応して、画面上の地図を拡大させて
もよい。また、指の動きが止まった時点で最終的な拡大
量が確定してから、その拡大量に応じて拡大された地図
画像を表示してもよい。At this time, the map on the screen may be enlarged in response to the operation of moving the thumb and the index finger away from each other in real time. Alternatively, after the final enlargement amount is determined when the movement of the finger stops, a map image enlarged according to the enlargement amount may be displayed.
【0045】また図7に示すように親指を固定して人差
し指のみを親指から遠ざける方向に移動させた場合も地
図の拡大ジェスチャーに含ませても良い。As shown in FIG. 7, a case where the thumb is fixed and only the index finger is moved away from the thumb may be included in the enlarged gesture of the map.
【0046】拡大された地図を参照した結果、更に詳細
な地図画像を得たいと思った場合には、前記地図の拡大
ジェスチャーを繰りかえすことにより、更に詳細な地図
画像を得ることができる。なお本実施の形態では、都市
部の地図をある程度拡大したらタウンマップ等の都市の
詳細地図が表示されるようになる。If it is desired to obtain a more detailed map image as a result of referring to the enlarged map, a more detailed map image can be obtained by repeating the map's enlarged gesture. In this embodiment, a detailed map of a city, such as a town map, is displayed when the map of an urban area is enlarged to some extent.
【0047】 地図のスクロール操作 また図8に示すように画面上に指をおいて、指を画面上
に押し当てたまま希望の方向に動かすと(地図のスクロ
ールジェスチャー)、動かした方向に動かした距離だけ
その地図が移動して表示される。As shown in FIG. 8, when a finger is placed on the screen, and the finger is pressed on the screen and moved in a desired direction (a map scroll gesture), the map is moved in the moved direction. The map is moved and displayed by the distance.
【0048】 地図の縮小操作 また、例えばより大きな縮尺の地図画像を見たい場合や
広範囲の情報を画面に表示したい場合等のように地図を
縮小したい場合には、最初に図6(A)に示すように親
指と人差し指を離した状態で画面上に表示された地図の
上におき、図9に示すように親指と人差し指が近づく方
向に動かす動作(地図の縮小ジェスチャー)を行う。こ
のようにすると、親指と人差し指の移動履歴に応じて縮
小された地図画像が表示される。即ち、親指と人差し指
の離れる度合いが大きい程、縮尺が小さくより詳細な地
図が表示される。Map Reduction Operation When the user wants to reduce the map, for example, when he wants to see a map image of a larger scale or when he wants to display a wide range of information on the screen, the user first needs to change the map shown in FIG. As shown in the figure, the user places the thumb and the index finger apart on the map displayed on the screen, and performs an operation of moving the thumb and the index finger toward each other as shown in FIG. 9 (reduction gesture of the map). In this way, a map image reduced according to the movement history of the thumb and the index finger is displayed. That is, the larger the degree of separation between the thumb and the index finger, the smaller the scale and the more detailed the map is displayed.
【0049】このとき、親指と人差し指を近づける動作
とともにリアルタイムに画面上の地図を縮小してもよ
い。また、指の動きが止まった時点で最終的な縮小量が
確定してから、その縮小量に応じて縮小された地図画像
を表示してもよい。At this time, the map on the screen may be reduced in real time together with the operation of bringing the thumb and the index finger closer. Alternatively, a map image reduced according to the final reduction amount may be displayed after the final reduction amount is determined when the movement of the finger stops.
【0050】また図7とは逆に親指を固定して人差し指
のみを親指に近づける方向に移動させた場合も地図の縮
小ジェスチャーに含ませても良い。Also, a case where the thumb is fixed and only the index finger is moved in the direction approaching the thumb may be included in the reduced gesture of the map.
【0051】縮小された地図を参照した結果、更に広範
囲の地図画像が得たいと思った場合には、前記地図の縮
小ジェスチャーを繰りかえすことにより、更に広範囲の
地図画像を得ることができる。なお本実施の形態では、
都市部の地図をある程度縮小したらタウンマップ等の都
市の詳細地図から通常の地図表示に変更して表示される
ようになる。As a result of referring to the reduced map, if it is desired to obtain a map image of a wider area, a map image of a wider area can be obtained by repeating the gesture of reducing the map. In the present embodiment,
When the map of an urban area is reduced to some extent, a detailed map of a city such as a town map is changed to a normal map display and displayed.
【0052】 地図の回転操作 また、縮尺は変えずに表示されている地図画像の向きを
変えたい場合には、最初に図6(A)に示すように親指
と人差し指を離した状態で画面上に表示された地図の上
におき、親指と人差し指のいずれか一方の指を固定し、
固定した指を中心軸として、いずれか他方の指をコンパ
スのように回転させる動作(地図の回転ジェスチャー)
を行う(図10参照)。このようにすると、親指と人差
し指の移動履歴に応じて回転された地図画像が表示され
る。If the user wants to change the direction of the displayed map image without changing the scale, the user first releases the thumb and forefinger on the screen as shown in FIG. On the map displayed in, fix either the thumb or index finger,
An operation of rotating one of the other fingers like a compass with the fixed finger as the center axis (map rotation gesture)
(See FIG. 10). By doing so, a map image rotated according to the movement history of the thumb and forefinger is displayed.
【0053】図11に示すように、点Oにいずれか一方
の指を固定して、いずれか他方の指を点Aから点Bに回
転させた場合、その回転角Θの分だけAからBへ回転す
る方向370に回転した地図画像が表示される。As shown in FIG. 11, when one of the fingers is fixed at the point O and the other finger is rotated from the point A to the point B, the distance from the point A to the point B is changed by the rotation angle Θ. The map image rotated in the rotation direction 370 is displayed.
【0054】このとき、いずれか一方の指の回転ととも
にリアルタイムに画面上の地図を回転させても良い。ま
た、指の動きが止まった時点で最終的な回転量が確定し
てから、その回転量に応じて縮小された地図画像を表示
してもよい。At this time, the map on the screen may be rotated in real time together with the rotation of one of the fingers. Alternatively, a map image reduced according to the rotation amount may be displayed after the final rotation amount is determined when the movement of the finger stops.
【0055】なお指動作は、親指と人差し指で行う場合
に限られず、例えば親指と中指等でもよいし、その他の
指の組み合わせで行ってもよい。The finger operation is not limited to the case of performing with the thumb and the index finger, but may be performed with, for example, the thumb and the middle finger, or a combination of other fingers.
【0056】(3)検索処理 次に、本実施の形態の電子ブックにおける指動作による
検索処理の具体例について説明する。(3) Search Process Next, a specific example of a search process by a finger operation in the electronic book according to the present embodiment will be described.
【0057】 通常の検索操作 例えばユーザーが、「南インド」のホテルの情報を得た
い場合、図12に示すような方法もある。即ちまず「南
インド」のタグを選択し、「南インド」の情報が掲載さ
れた先頭ページを表示させ、次に宿泊のタグを選択し、
「南インドの宿泊」の情報が掲載された先頭ページを表
示させる方法である。係る方法は、ユーザーが「南イン
ド」について様々な情報を得たい場合、取り合えず「南
インド」の情報が掲載された先頭ページを表示させ、そ
の後「南インド」の様々な情報を検索したい場合等に有
効である。Normal Search Operation For example, when a user wants to obtain information on a hotel in “South India”, there is a method as shown in FIG. That is, first select the tag of "South India", display the first page with information of "South India", then select the tag of accommodation,
This is a method of displaying the first page on which the information of "South India accommodation" is posted. This method is used when the user wants to obtain various information about "South India", displays the first page with information about "South India", and then searches for various information about "South India". It is effective for etc.
【0058】 論理積条件での検索操作 しかし、ユーザーが「南インドの宿泊」情報のみが必要
な場合には、1回の操作でダイレクトに「南インドの宿
泊」の情報が掲載された先頭ページが表示されることが
好ましい。 そこで本実施の形態では、図13(A)に
示すように、ユーザーが例えば左手の指で「南インド」
のタグを、右手の指で「宿泊」のタグを同時にタッチし
た場合には、1回の操作でダイレクトに「南インドの宿
泊」の情報が掲載された先頭ページが表示されるよう構
成されている。Search operation based on logical product condition However, if the user needs only the information on “South India accommodation”, the first page where the information on “South India accommodation” is directly posted in one operation Is preferably displayed. Thus, in the present embodiment, as shown in FIG.
If you touch the tag of "Accommodation" with the right finger at the same time, the first page with the information of "Accommodation in South India" is displayed directly by one operation. I have.
【0059】「南インドの宿泊」の情報が複数ページに
渡っている場合には、図13(B)に示すようにページ
めくり入力を行うことにより、次ページ以降に記載され
た情報を読むことができる。When the information of "South India accommodation" is spread over a plurality of pages, the information described on the next page and subsequent pages can be read by inputting a page turn as shown in FIG. Can be.
【0060】(4)ページめくり、しおり処理等 次に、本実施の形態の電子ブックでページめくりを行う
具体例について説明する。(4) Page Turning, Bookmark Processing, etc. Next, a specific example of turning pages in the electronic book of the present embodiment will be described.
【0061】 ページめくり入力操作 本実施の形態の電子ブックでは、各種操作は画面上の指
動作として入力するため、筐体に操作入力用のボタン等
がほとんどない。また本の内容が表示された画面におい
ては、画面上に操作入力用マークがほとんどないのが特
徴である(図3参照)。Page Turning Input Operation In the electronic book of the present embodiment, since various operations are input as finger movements on the screen, there are few operation input buttons or the like on the housing. Also, the screen on which the book contents are displayed is characterized in that there is almost no operation input mark on the screen (see FIG. 3).
【0062】本実施の形態では、旅行情報ソフトを電子
ブックにセットすることにより、ユーザーは旅行のガイ
ドブックを参照するのと同様の使い勝手で、図3に示す
ような画面上で実際の本のページと同様の内容を参照す
ることができる。In the present embodiment, by setting travel information software in an electronic book, the user can use the same convenience as referring to a travel guidebook, and display the actual book on a screen as shown in FIG. You can refer to the same content as the page.
【0063】ユーザーが次ページを参照したいと思った
場合には、ユーザーが画面上の情報表示領域を紙の本の
ページめくる時のように人差し指で左から右へなぞる
と、図14に示すようにあたかもページがめくれるよう
なイメージで表示画面が次ページの内容に更新される。When the user wants to refer to the next page, the user traces the information display area on the screen from left to right with his index finger as in turning a page of a paper book, as shown in FIG. The display screen is updated to the contents of the next page as if the page were turned.
【0064】このとき、ユーザーは人差し指等をべった
り画面に接触させて、ある程度の強さでこするように指
を横方向に移動させることが必要である。本実施の形態
では、ページめくりの入力を他の入力と区別するため
に、指が所定の面積以上かつ所定の圧力値以上で画面に
接触されて、横方向に移動している場合に、ページめく
りが入力されていると判断するからである。At this time, it is necessary for the user to move the finger in the lateral direction so as to rub the index finger or the like or touch the screen with a certain strength. In the present embodiment, in order to distinguish the page turning input from other inputs, when the finger is touching the screen with a predetermined area or more and a predetermined pressure value or more and moving in the horizontal direction, This is because it is determined that the turning has been input.
【0065】なお、ページめくりの方向とページの昇降
は、実際の本と同様に縦書きか横書きによって異なる。
従って、縦書きの本の場合はページは右から左に進むの
で、図14のように指の移動を行うと、次ページがめく
れるが、横書きの場合は前ページがめくれる。また逆
に、縦書きの本の場合は図14と逆に人差し指で右から
左へなぞると、前ページがめくれるが、横書きの場合は
次ページがめくれることになる。Note that the direction of page turning and the elevation of a page differ depending on whether it is written vertically or horizontally as in an actual book.
Therefore, in the case of a vertically written book, the page advances from right to left, so when the finger is moved as shown in FIG. 14, the next page is turned, but in the case of horizontal writing, the previous page is turned. Conversely, in the case of a vertically written book, tracing from right to left with the index finger turns the previous page contrary to FIG. 14, but in the case of horizontal writing, the next page is turned.
【0066】このように、ユーザーは通常の本を扱うの
同様の感覚でページめくり入力が行えるので、操作の習
得が容易で使い勝手のよいヒューマンインターフェース
を提供できる。As described above, since the user can perform page turning input with the same feeling as handling a normal book, it is possible to provide a human interface that is easy to learn and easy to use.
【0067】なおページめくり入力時に、図14に示す
ように指の動きに応じてページがめくれる途中のイメー
ジ画像を表示してもよいが、直接前ページ画面又は次ペ
ージ画面に切り替わる構成でもよい。At the time of page turning input, an image in which a page is being turned may be displayed according to the movement of a finger as shown in FIG. 14, but it may be configured to switch directly to the previous page screen or the next page screen.
【0068】またページめくりに対応して「パラ」等の
ページがめくれる音を連想できるようなイメージ音を出
力してもよい。In addition, an image sound that can be associated with a page turning sound such as “para” may be output in response to the page turning.
【0069】 連続ページめくり入力操作 また図15に示すように、「本の厚み」を模した画像
(以下「本の厚み」という)240、242をユーザー
が所定時間以上タッチし続けると、ページがパラパラと
連続してめくれる。このとき、ユーザーがタッチする強
さを変えると、ページめくりの速度を変更することがで
きる。即ち、ユーザーはより強くタッチすることでペー
ジがめくれる速度を早めることができる。またタッチす
る強さを弱めることで、ページがめくれる速度を遅くす
ることができる。ユーザーは自分が読みたいページが見
つかった時点で、前記「本の厚み」から手を離すことに
より、連続ページめくりを止めて、表示画面を当該ペー
ジに位置づけることができる。Continuous page turning input operation As shown in FIG. 15, when the user keeps touching images (hereinafter referred to as “book thickness”) 240 and 242 imitating “book thickness” for a predetermined time or more, the page is displayed. It flips continuously. At this time, if the user changes the touching strength, the speed of turning the page can be changed. That is, the user can increase the speed of turning the page by touching more strongly. You can also slow down the page turn by reducing the intensity of the touch. When the user finds the page he / she wants to read, he / she can release the hand from the “thickness of the book” to stop the continuous page turning and position the display screen on the page.
【0070】なお、前述したページめくりの場合と同様
にページの昇降は縦書きか横書きによって異なる。従っ
て、縦書きの本の場合は、図15のように左端の本の厚
みをタッチし続けると次ページ方向に連続してページが
めくれるが、横書きの場合は前ページ方向に連続してペ
ージがめくれる。また逆に、縦書きの本の場合は図15
と逆に右端の本の厚みをタッチし続けると前ページ方向
に連続してページがめくれるが、横書きの場合は次ペー
ジ方向に連続してページがめくれる。As in the case of the page turning described above, the elevation of the page differs depending on the vertical writing or the horizontal writing. Therefore, in the case of a vertically written book, if the thickness of the book on the left end is kept touching as shown in FIG. 15, the pages are continuously turned in the next page direction. Turn over. Conversely, in the case of a vertically written book, FIG.
Conversely, if you keep touching the thickness of the book on the right end, the pages will be turned continuously in the previous page direction, but in the case of horizontal writing, the pages will be turned continuously in the next page direction.
【0071】このように、ユーザーは通常の本を扱うの
と同様の感覚でページめくり入力が行えるので、操作の
習得が容易で使い勝手のよいヒューマンインターフェー
スを提供できる。As described above, since the user can perform page turning input with the same feeling as handling a normal book, it is possible to provide a human interface that is easy to learn and easy to use.
【0072】なお連続ページめくり入力時に、図15に
示すように指の動きに応じてページがめくれる途中のイ
メージ画像を表示してもよいが、直接前ページ画面又は
次ページ画面に所定時間おきに切り替わる構成でもよ
い。At the time of continuous page turning input, as shown in FIG. 15, an image in which a page is being turned may be displayed according to the movement of the finger, but it is directly displayed on the previous page screen or the next page screen every predetermined time. The configuration may be switched.
【0073】またページめくりに対応して「パラパラパ
ラ」等のページがめくれる音を連想できるようなイメー
ジ音を出力してもよい。In addition, an image sound that can be associated with a page turning sound such as “para-para-para” may be output in response to page turning.
【0074】 しおり挿入、参照操作 次に本実施の形態の有しているしおり機能について説明
する。通常の読書の際に再び参照したい箇所にしおりを
挿入するように、本実施の形態でも、再び参照したいペ
ージにしおりを付すことができる。Next, a bookmark function of the present embodiment will be described. Just as a bookmark is inserted at a place to be referred to again during normal reading, a bookmark can be added to a page to be referred to again in the present embodiment.
【0075】図16に示すように、矢印部260をドラ
ッグして画面の一番下まで指でなぞると当該ページにし
おりを挿入することができる。即ち上記動作後から図1
7に示すように画面上にしおりマーク270が表示され
る。As shown in FIG. 16, when the arrow 260 is dragged and traced to the bottom of the screen with a finger, a bookmark can be inserted into the page. That is, after the above operation, FIG.
As shown in FIG. 7, a bookmark mark 270 is displayed on the screen.
【0076】ユーザーが他のページを参照している際に
は、図18(A)に示すように画面の下端にしおり27
0が表示されている。When the user is viewing another page, a bookmark 27 is displayed at the lower end of the screen as shown in FIG.
0 is displayed.
【0077】ユーザーは、しおりを付したページを参照
したくなった場合には、図18(B)に示すように画面
の下部に表示されたしおり270を指でタッチすると、
図18(C)に示すように、画面はしおりを付したペー
ジに切り替わる。When the user wants to refer to the bookmarked page, he touches the bookmark 270 displayed at the bottom of the screen with his finger as shown in FIG.
As shown in FIG. 18C, the screen is switched to a page with a bookmark.
【0078】なお、しおりを1本のみ挟む場合を例にと
り説明したがこれに限られない。例えば、複数のページ
にしおりを付したい場合には複数の色のしおりマークを
表示する等してもよい。Although the description has been made by taking an example in which only one bookmark is sandwiched, the present invention is not limited to this. For example, when it is desired to bookmark a plurality of pages, a bookmark mark of a plurality of colors may be displayed.
【0079】(5)今日のフォルダの使用例 次に、本実施の形態の今日のフォルダーの使用の具体例
について説明する。(5) Example of Using Today's Folder Next, a specific example of using the today's folder according to the present embodiment will be described.
【0080】図3において、280の入力用アイコンを
指でタッチすると、図19に示すように画面下部に各種
操作用アイコン(282、284、286、288)で
構成されたツールバーが表示される。In FIG. 3, when the input icon 280 is touched with a finger, a toolbar composed of various operation icons (282, 284, 286, 288) is displayed at the bottom of the screen as shown in FIG.
【0081】282は、本電子ブックの各種設定入力を
行うためのモードへの移行する際にタッチするアイコン
である。また284は、本電子ブックの付属部品である
カメラで動画又は静止画を撮影するモードへ移行する際
にタッチするアイコンである。286は、本電子ブック
の付属部品であるペンを使って文字や図形等をメモ入力
するモードへ移行する際にタッチするアイコンである。
288は入力したデータや画面上で指定した情報を今日
のフォルダに格納する際や、今日のフォルダの中味を参
照したい場合等にタッチするアイコンである。この今日
のフォルダとは毎日自動的に作成されるものであり、使
い方は日々の使用シーンの中で作成しておいたデータを
常に入れっぱなしにしておくいわば倉庫のようなもので
ある。以下、今日のフォルダーの各種使用例について説
明する。Reference numeral 282 denotes an icon to be touched when shifting to a mode for inputting various settings of the electronic book. Reference numeral 284 denotes an icon to be touched when shifting to a mode for shooting a moving image or a still image with a camera which is an accessory part of the electronic book. Reference numeral 286 denotes an icon to be touched when shifting to a mode in which characters, graphics, and the like are memo input using a pen which is an accessory part of the electronic book.
An icon 288 is touched when input data or information specified on the screen is stored in the today's folder, or when the user wants to refer to the contents of the today's folder. This folder of today is created automatically every day, and its usage is like a warehouse where data created in daily use scenes is always kept. Hereinafter, various usage examples of today's folder will be described.
【0082】 電子ブックに格納されている情報をフ
ローティングして格納する例 電子ブックに格納されている情報をフローティングして
格納する例について図20〜図22を用いて説明する。
例えば「北インド」の情報を得たい場合、「北インド」
のインデックスをタッチしてページを開き読んでみる。
その中でも「タージマハイル」の文字が赤色に表示して
あるのでタッチしてみる(図20(A)参照)。すると
「タージマハイル」のページに自動的にジャンプするよ
う構成されている。Example of Floating and Storing Information Stored in Electronic Book An example of floating and storing information stored in an electronic book will be described with reference to FIGS.
For example, if you want to get information about "North India"
Touch the index to open the page and read it.
Among them, the character “Taj Mahail” is displayed in red, so touch it (see FIG. 20A). Then, it is configured to automatically jump to the "Taj Mahail" page.
【0083】例えば通常紙の本で「タージマハイル」に
ついて読んでみて、この部分をコピーして持ち歩きたい
と思ったような場合、本電子ブックでは、以下のような
操作を行うことができる。For example, when reading "Taj Mahaile" in a normal paper book and wishing to copy and carry this part, the following operation can be performed in this electronic book.
【0084】即ち、ユーザーが切り取りたいと思う情報
が記載されている範囲を人差し指でなぞりながら四角形
で囲み指を画面から離す(図20(B)の矢印410参
照)。するとその囲われた部分が画面で浮き上がったよ
うに表示される(図21の420参照)。これをフロー
ティング化という。That is, while tracing the range in which the information that the user wants to cut out is described with the index finger, the user encloses the rectangle in a rectangle and releases the finger from the screen (see arrow 410 in FIG. 20B). Then, the enclosed portion is displayed as if it were raised on the screen (see 420 in FIG. 21). This is called floating.
【0085】そしてフローティング化された部分を指で
押さえて、ドラッグ・アンド・ドロップの要領で今日の
フォルダのアイコン288まで移動してそこで指を離す
(以下、「今日のフォルダにドラッグ・アンド・ドロッ
プする」という)と(図22参照)、フローティング化
された部分が今日のフォルダへ格納される。このよう
に、本電子ブックでは、切り取りたい内容を指で指定し
て、今日のフォルダにドラッグ・アンド・ドロップする
と、画面上指定した内容を今日のフォルダに格納するこ
とができる。Then, hold the floating portion with a finger, move to the today's folder icon 288 in the manner of drag and drop, and release the finger there (hereinafter, “drag and drop to today's folder”). (See FIG. 22), and the floating portion is stored in the today's folder. As described above, in this electronic book, by specifying the content to be cut out with the finger and dragging and dropping the content into the today's folder, the content specified on the screen can be stored in the today's folder.
【0086】なお、フローティング化する領域は、閉曲
線や多角形で囲んでできる領域だけでなく、画面の端と
指で囲んだ部分で指定される領域でもよい。例えば図4
2(A)に示すように、指で840のように軌跡を描い
て画面をなぞった場合に、軌跡840と画面の端の稜線
850で囲まれる部分852(斜線領域)をフローティ
ング化するようにしてもよい。The area to be floated is not limited to an area surrounded by a closed curve or a polygon, but may be an area designated by an edge of the screen and a portion surrounded by a finger. For example, FIG.
As shown in FIG. 2A, when the user traces the screen by drawing a locus like a finger 840, the portion 852 (shaded area) surrounded by the locus 840 and the edge 850 at the edge of the screen is floated. You may.
【0087】また、図42(B)に示すように、画面上
の2点P1、P2を指で指定して、当該2点を結ぶ線分
を対角線とする長方形領域854(斜線領域)をフロー
ティング化するようにしてもよい。As shown in FIG. 42B, two points P1 and P2 on the screen are designated with a finger, and a rectangular area 854 (hatched area) having a line connecting the two points as a diagonal line is floated. You may make it.
【0088】また、図42(C)に示すように、画面上
の3点P3、P4、P5を指で指定して、当該3点をそ
の円周上に有する円領域856(斜線領域)をフローテ
ィング化するようにしてもよい。As shown in FIG. 42 (C), three points P3, P4 and P5 on the screen are designated by a finger, and a circular area 856 (hatched area) having the three points on the circumference is designated. You may make it float.
【0089】 静止画及び動画を格納する例 次にカメラで撮影した映像を今日のフォルダに格納する
例について図23〜図25を用いて説明する。Example of Storing Still Image and Moving Image Next, an example of storing a video shot by a camera in a today's folder will be described with reference to FIGS.
【0090】例えばユーザーが旅行中に時刻表等の内容
をひかえたい場合に、本電子ブックを利用すれば、図2
4(A)に示すように、電子ブック本体内に設けられて
いるカメラレンズ520を引き出して、時刻表510を
撮影し、撮影データを電子ブックに格納することができ
る。For example, when the user wants to check the contents of a timetable or the like while traveling, this electronic book can be used as shown in FIG.
As shown in FIG. 4A, the user can pull out the camera lens 520 provided in the electronic book main body, photograph the timetable 510, and store the photographed data in the electronic book.
【0091】即ちユーザーが電子ブックのツールバーを
引き出しカメラアイコン284を指でタッチすると撮影
モードになり、図23に示すようなカメラ撮影用操作表
示画面が表示される。ユーザーは画面左側に大きく配置
されたファインダー画面530の上に表示された「動
画」と「静止画」のいずれかの画面スイッチ550、5
40を指でタッチすることにより、動画或いは静止画の
撮影を選択することができる。That is, when the user pulls out the toolbar of the electronic book and touches the camera icon 284 with a finger, the mode is changed to a shooting mode, and a camera shooting operation display screen as shown in FIG. 23 is displayed. The user can select one of the screen switches 550, 550 and 5 for “moving image” and “still image” displayed on the finder screen 530 that is largely arranged on the left side of the screen.
By touching 40 with a finger, a moving image or a still image can be selected.
【0092】例えばユーザーが静止画の画面スイッチ5
40にタッチすると、撮影実行用スイッチ560の表示
が「シャッター」に変わる。そしてユーザーが時刻表5
10にカメラレンズを向けると、ファインダー画面53
0にカメラレンズ520がとらえた時刻表映像が表示さ
れる。ユーザーが、「シャッター」ボタン560を指で
タッチすると、取り終えた画像データが撮影日時ととも
に自動的にフォルダファイルに格納される。For example, when the user sets the still image screen switch 5
When the user touches 40, the display of the shooting execution switch 560 changes to “shutter”. And the user has timetable 5
When the camera lens is pointed at 10, the viewfinder screen 53
At 0, a timetable image captured by the camera lens 520 is displayed. When the user touches the "shutter" button 560 with a finger, the captured image data is automatically stored in the folder file together with the shooting date and time.
【0093】フォルダファイルとは、「今日のフォルダ
ー」に入れる情報を記憶するためのファイルである。格
納された情報は日時で管理され、日付単位で読み出し可
能に形成されている。The folder file is a file for storing information to be put in the “today's folder”. The stored information is managed by date and time, and is configured to be readable on a date basis.
【0094】また例えばユーザーが動画像を撮影したい
場合には、動画のスイッチ550にタッチすると、撮影
実行用スイッチ560の表示が「録画待機中」に変わ
る。ユーザーが「録画待機中」のボタンにタッチすると
動画像の撮影が開始される。For example, when the user wants to shoot a moving image, touching the switch 550 of the moving image changes the display of the shooting execution switch 560 to “waiting for recording”. When the user touches the “recording standby” button, shooting of a moving image is started.
【0095】なお、図25に示すように本電子ブックの
カメラレンズ520は電子ブック本体522から取り外
せるワイヤレスタイプであるため、ユーザーは周りの人
に気兼ねなく撮影することができる。またユーザーが
「録画待機中」と表示された撮影実行用スイッチ560
を押すと、表示が「撮影中」に切り替わる。ユーザーが
撮影を中断したい場合には当該「撮影中」ボタンを指で
タッチすると、撮影が中断され、表示は「撮影待機中」
に切り替わる。そして撮影された画像は撮影日時ととも
にフォルダファイルに自動的に格納される。As shown in FIG. 25, the camera lens 520 of the electronic book is of a wireless type that can be detached from the electronic book main body 522, so that the user can take a picture without hesitation by others. Further, the photographing execution switch 560 in which the user displays “waiting for recording”
Pressing switches the display to "Shooting". If the user wants to interrupt the shooting, touch the “Shooting” button with a finger to interrupt the shooting and display “Standby for shooting”.
Switch to Then, the photographed image is automatically stored in a folder file together with the photographing date and time.
【0096】 メモ書きを格納する例 次はユーザーのメモ書きを格納する例について図26、
図27を用いて説明する。Example of Storing Memo Writing Next, an example of storing memo writing of a user will be described with reference to FIG.
This will be described with reference to FIG.
【0097】ユーザーが画面下部にあるツールバーを引
き出して、「メモ」のアイコン286を指でタッチする
と、図26に示すようなメモ入力画面600が表示され
る。ユーザーが本電子ブック付属のペン610でこの画
面上に文字等を入力すると、そのままイメージデータと
して記録される。書き終えたのちに、図27に示すよう
にそのメモ入力画面を今日のフォルダにドラッグ・アン
ド・ドロップするとメモ入力画面600に記載した内容
を格納日時とともにフォルダファイルに格納することが
できる。When the user pulls out the toolbar at the bottom of the screen and touches the “memo” icon 286 with a finger, a memo input screen 600 as shown in FIG. 26 is displayed. When a user inputs characters and the like on this screen with a pen 610 attached to the electronic book, the characters are directly recorded as image data. After the writing, as shown in FIG. 27, by dragging and dropping the memo input screen to today's folder, the contents described on the memo input screen 600 can be stored in a folder file together with the storage date and time.
【0098】 今日のフォルダの参照処理 ユーザーが画面下部にあるツールバーを引き出して、
「今日のフォルダ」のアイコン288を指でタッチする
と、図28に示すようなその日の今日のフォルダ画面7
00が表示される。その中には、その日に今日のフォル
ダに格納されたデータがアイコン化(710、720、
730、740)して表示されている。本電子ブックで
はユーザーが格納したデータ内容が、そのまま縮小され
たイメージとしてアイコン化されるので、ユーザーはデ
ータの中身についての記憶を喚起し易い。更にアイコン
の下部にはデータを格納した時間が表示されているの
で、ユーザーの行動記録としても活用し易く、後でデー
タを整理する場合にも便利である。Today's folder reference process The user pulls out the toolbar at the bottom of the screen,
Touching the “today's folder” icon 288 with a finger causes the today's folder screen 7 of that day as shown in FIG.
00 is displayed. Among them, the data stored in today's folder on that day is iconified (710, 720,
730, 740). In this electronic book, the data content stored by the user is converted into an icon as a reduced image as it is, so that the user can easily evoke storage of the contents of the data. Further, since the time at which the data is stored is displayed below the icon, it is easy to use it as a record of the user's actions, which is convenient for organizing the data later.
【0099】ユーザーは、アイコン化したデータ71
0、720、730、740を指でタッチして、「内容
を見る」の部分750にドラッグ・アンド・ドロップさ
せると、その内容が画面上に表示される。同様に「捨て
る」とかかれたゴミ箱部分780に入れると、その内容
を自動的に消去できる。The user inputs the iconized data 71
When the user touches 0, 720, 730, 740 with his finger and drags and drops it to the "view contents" portion 750, the contents are displayed on the screen. Similarly, if the contents are put in the trash box portion 780 that is "discarded", the contents can be automatically deleted.
【0100】また「前の日」とかかれた部分760をタ
ッチすると、前日の「今日のフォルダ画面」が表示さ
れ、「次の日」とかかれた部分770をタッチすると、
次の日「今日のフォルダ画面」が表示される。ユーザー
はこの「前の日」と「次の日」の部分をタッチすること
で、過去のフォルダ画面にさかのぼり、また現在のフォ
ルダ画面に帰ってくることができる。When touching a portion 760 where "the previous day" is written, a "today's folder screen" of the previous day is displayed, and when touching a portion 770 where "the next day" is touched,
The next day, "Today's folder screen" is displayed. The user can go back to the previous folder screen and return to the current folder screen by touching the "previous day" and the "next day".
【0101】また、図29に示すように関連のあるデー
タのアイコンを接触するように指で移動させると、接触
しているデータがグループ化される。このため、データ
の整理に便利である。Further, as shown in FIG. 29, when the icon of the related data is moved by a finger so as to touch, the touching data is grouped. This is convenient for organizing data.
【0102】図30は、今日のフォルダの活用の一例を
説明するための図である。FIG. 30 is a diagram for explaining an example of the use of folders today.
【0103】例えば、ユーザーが約1ヶ月間の旅行に本
電子ブックを携帯して、旅行中に様々なデータを今日の
フォルダに格納したとする。ユーザーが、電子ブックを
開いてみると、30個の今日のフォルダが記憶されてい
る(図30(A)参照)。For example, it is assumed that a user carries this electronic book with him for a travel of about one month, and stores various data in today's folder while traveling. When the user opens the electronic book, 30 today's folders are stored (see FIG. 30A).
【0104】ユーザーは、電子ブック800に格納され
てる今日のフォルダのデータをインターネットに接続さ
れている他のコンピュータ810に書き込み、インター
ネットを利用して旅行データ収集会社820に送る(図
30(B)参照)。The user writes today's folder data stored in the electronic book 800 to another computer 810 connected to the Internet and sends it to the travel data collection company 820 using the Internet (FIG. 30B). reference).
【0105】旅行データ収集会社820は、回収したデ
ータを編集して旅行用ソフト出版会社830に最新旅行
データを供給する。そして旅行用ソフト出版会社830
は最新データに基づきバージョンアップした旅行用ソフ
トを発売する。The travel data collection company 820 edits the collected data and supplies the latest travel data to the travel software publishing company 830. And travel software publisher 830
Releases travel software upgraded based on the latest data.
【0106】このように電子出版産業が発達すれば、よ
り最新のデータを反映した内容のデジタルソフトの供給
が行える用になる。また、出版に金や手間がかからない
ため、だれもが手軽に出版することができたり、購読者
が限定されるような専門的なものが出版できたりという
ような出版の理想像を実現することも可能となる。If the electronic publishing industry develops in this way, it will be possible to supply digital software having contents reflecting the latest data. In addition, publishing requires no money and hassle, so that the ideal image of publishing can be realized such that anyone can easily publish, or publish a specialized one with limited subscribers. Is also possible.
【0107】(6)電子ブックの構成 次に本実施の形態の電子ブックのハードウエア構成につ
いて図31を用いて説明する。(6) Configuration of Electronic Book Next, the hardware configuration of the electronic book according to the present embodiment will be described with reference to FIG.
【0108】図31に示すように、本実施の形態の電子
ブックは、CPU(中央処理ユニット)1010、メモ
リ1020、ディスプレイコントローラ1030、タッ
チパネルコントローラ1040、バス1050、タッチ
パネル1060、ディスプレイ1070、ディスクドラ
イブコントローラ1080、ディスクドライブ109
0、情報記憶媒体1220、カメラ1130、ペン11
20を含んで構成されている。As shown in FIG. 31, the electronic book according to the present embodiment includes a CPU (Central Processing Unit) 1010, a memory 1020, a display controller 1030, a touch panel controller 1040, a bus 1050, a touch panel 1060, a display 1070, a disk drive controller. 1080, disk drive 109
0, information storage medium 1220, camera 1130, pen 11
20.
【0109】ディスプレイ1070は液晶等で構成され
ており、ディスプレイコントローラ1030により、出
力が制御される。The display 1070 is composed of a liquid crystal or the like, and the output is controlled by the display controller 1030.
【0110】タッチパネル1060は、光学式、抵抗
式、静電容量式、超音波式などのパネルによって構成さ
れており、タッチパネルコントローラ1040により制
御される。タッチパネル1060は、ディスプレイ10
70に透明なタッチセンサ板を重ねて設置される。ユー
ザーが指先やペン1120などで表示画面に接触する
と、タッチパネル1060は指の接触位置情報及び接触
圧力及び接触面積やペン1120で入力された文字や図
形等のイメージデータを検出することができる。The touch panel 1060 is constituted by a panel of an optical type, a resistance type, a capacitance type, an ultrasonic type or the like, and is controlled by a touch panel controller 1040. The touch panel 1060 is connected to the display 10
A transparent touch sensor plate is superimposed on 70. When the user touches the display screen with a fingertip, a pen 1120, or the like, the touch panel 1060 can detect contact position information, a contact pressure and a contact area of the finger, and image data such as a character or a figure input with the pen 1120.
【0111】このようにディスプレイ1070の表面に
透明なタッチセンサ板を重ねて一体化することにより表
示画面上での指動作入力やペン入力が可能になる。By thus integrating the transparent touch sensor plate on the surface of the display 1070, a finger motion input or a pen input on the display screen becomes possible.
【0112】CPU1010は装置全体の制御や各種デ
ータ処理、図2〜図30で説明した種々の処理の実行を
行う。メモリは、ROM、RAMで構成されて、RAM
はこのCPU1010の作業領域等として用いられる記
憶手段であり、情報記憶媒体1220やROMの所与の
内容、あるいはCPU1010の演算結果等が格納され
る。The CPU 1010 controls the entire apparatus, performs various data processing, and executes the various processing described with reference to FIGS. The memory is composed of a ROM and a RAM.
Is storage means used as a work area or the like of the CPU 1010, and stores given contents of the information storage medium 1220 and the ROM, the calculation results of the CPU 1010, and the like.
【0113】ディスクドライブ1090はフロッピーデ
ィスク等の情報記憶媒体1220に対してデータの書き
込み、読み込みを行うもので、ディスクドライブコント
ローラ1080により制御される。A disk drive 1090 writes and reads data to and from an information storage medium 1220 such as a floppy disk, and is controlled by a disk drive controller 1080.
【0114】情報記憶媒体1220には、画像を生成す
るためのデータ、プログラム、図2〜図30で説明した
種々の処理を行うための情報等が主に格納されている。The information storage medium 1220 mainly stores data and programs for generating images, information for performing the various processes described with reference to FIGS. 2 to 30, and the like.
【0115】カメラ1130は、動画及び静止画を撮影
するためのものである。The camera 1130 is for taking moving pictures and still pictures.
【0116】ペン1120は表示画面上でメモ入力する
ためのものであり、ペンの形状をした棒もしくはインク
等がディスプレイにつかなければなんでもよい。The pen 1120 is for inputting a memo on the display screen, and may be anything as long as a pen-shaped stick or ink does not adhere to the display.
【0117】ユーザーがディスプレイ上で指操作を行っ
たり、メモ入力を行ったり、カメラで撮影を行ったり等
の様々な入力を行うとCPU1010は、その入力内容
に基づき、ユーザーが指示した操作を実行する。When the user performs various inputs such as finger operation on the display, memo input, photographing with a camera, etc., the CPU 1010 executes the operation specified by the user based on the input contents. I do.
【0118】図32は、本電子ブックの機能ブロック図
の一例である。FIG. 32 is an example of a functional block diagram of the electronic book.
【0119】指動作検出部1110は、ユーザーが表示
部上で行った指の移動履歴や接触圧力や接触面積を検出
するためのものである。指動作検出部1110は、表示
部1240に透明なタッチパネル等を重ねて構成されて
いる。指動作検出部1110で得られた検出データは処
理部1100へ入力される。The finger motion detection unit 1110 is for detecting the history of finger movement performed by the user on the display unit, the contact pressure, and the contact area. The finger motion detection unit 1110 is configured by overlapping a transparent touch panel or the like on the display unit 1240. The detection data obtained by the finger motion detection unit 1110 is input to the processing unit 1100.
【0120】ペン入力部1120は、ユーザーが表示部
上にペンで記載した内容を入力するためのものである。
ペン入力部1120は、ユーザーが前期ペン1120で
表示部1240に文字や図形等を記載すると、表示部に
重ねられた透明なタッチパネル等がその内容をイメージ
データとして検出するよう構成されている。ペン入力部
1120で得られた検出データは処理部1100へ入力
される。The pen input unit 1120 is for the user to input the contents described with the pen on the display unit.
The pen input unit 1120 is configured such that when a user writes characters, graphics, and the like on the display unit 1240 with the pen 1120, a transparent touch panel or the like superimposed on the display unit detects the content as image data. The detection data obtained by the pen input unit 1120 is input to the processing unit 1100.
【0121】撮影部1130は、ユーザーが動画及び静
止画の少なくとも一方を撮影するためのものである。撮
影部1130は、カメラ又はビデオカメラ等で構成され
ている。撮影部1130で撮影された撮影データは処理
部1100へ入力される。The photographing section 1130 is for the user to photograph at least one of a moving image and a still image. The imaging unit 1130 is configured by a camera, a video camera, or the like. The photographing data photographed by the photographing unit 1130 is input to the processing unit 1100.
【0122】処理部1100は、前記指動作やペン入力
による検出データ、撮影データ、所与のプログラム等基
づいて、表示部に表示する画像を生成する処理や、デー
タをフォルダファイルに格納する処理等を行うものであ
る。この処理部1100の機能は、CPU(CISC
型、RISC型)、DSP、カスタム(ゲートアレーな
ど)IC、メモリなどのハードウエアにより実現でき
る。The processing section 1100 generates an image to be displayed on the display section based on the detected data obtained by the finger operation or pen input, photographing data, a given program, and the like, stores the data in a folder file, and the like. Is what you do. The function of this processing unit 1100 is a CPU (CISC
, RISC type), DSP, custom (gate array, etc.) IC, and memory such as memory.
【0123】情報記憶媒体1220は、プログラムやデ
ータを記憶するためのものである。この情報記憶媒体1
220の機能は、CD−ROM、カセット、ICカー
ド、MO、FD、DVD、ハードディスク、メモリ等の
ハードウエアにより実現できる。処理部1100は、こ
の情報記憶媒体1220からのプログラム、データに基
づいて種々の処理を行うことになる。The information storage medium 1220 is for storing programs and data. This information storage medium 1
The function of 220 can be realized by hardware such as a CD-ROM, cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 1100 performs various processes based on the program and data from the information storage medium 1220.
【0124】処理部1100は、処理内容決定部114
0、各種処理部1150、画像生成部1200、記憶部
1230を含んで構成される。The processing section 1100 includes a processing content determination section 114
0, various processing units 1150, an image generation unit 1200, and a storage unit 1230.
【0125】処理内容決定部1140は、指動作検出部
1110、ペン入力部1120、撮影部1130から入
力されたデータに基づき、処理すべき内容を決定する。The processing content determining unit 1140 determines the content to be processed based on the data input from the finger motion detecting unit 1110, the pen input unit 1120, and the photographing unit 1130.
【0126】各種処理部1150は、拡大処理部116
2、縮小処理部1164、回転処理部1166、スクロ
ール処理部1168、通常の検索処理部1172、論理
積検索処理部1174、ページめくり処理部1182、
連続ページめくり処理部1184、しおり挿入処理部1
186、しおり挿入箇所参照処理部1188、フローテ
ィング処理部1192、撮影処理部1194、メモ入力
処理部1196、フォルダ参照処理部1198を含み、
処理内容決定部1140の決定にしたがい、地図画像の
拡大処理、縮小処理、回転処理、スクロール処理、通常
の検索処理、論理積検索処理、ページめくり処理、連続
ページめくり処理、しおり挿入処理、しおり挿入箇所参
照処理、フローティング処理、撮影処理、メモ入力処
理、フォルダ参照処理等を行う。The various processing units 1150 include the enlargement processing unit 116
2, reduction processing unit 1164, rotation processing unit 1166, scroll processing unit 1168, ordinary search processing unit 1172, logical product search processing unit 1174, page turning processing unit 1182,
Continuous page turning processing unit 1184, bookmark insertion processing unit 1
186, a bookmark insertion point reference processing unit 1188, a floating processing unit 1192, a photographing processing unit 1194, a memo input processing unit 1196, and a folder reference processing unit 1198,
According to the determination of the processing content determining unit 1140, the map image is enlarged, reduced, rotated, scrolled, ordinarily searched, logical product search, page turning, continuous page turning, bookmark insertion, bookmark insertion. It performs location reference processing, floating processing, photographing processing, memo input processing, folder reference processing, and the like.
【0127】記憶部1230は、各種情報を記憶するも
のであり、今日のフォルダに格納されたデータを記憶す
るためのフォルダファイル1232を含む。[0127] The storage unit 1230 stores various information, and includes a folder file 1232 for storing data stored in today's folder.
【0128】画像生成部1200は、各種処理部115
0が行った処理に基づき表示部に表示する画像を生成す
る。The image generation unit 1200 includes various processing units 115
0 generates an image to be displayed on the display unit based on the processing performed by the control unit 0.
【0129】(7)本実施の形態の動作例 図33〜図41は本実施の形態の電子ブックの動作例を
表したフローチャート図である。(7) Operation Example of this Embodiment FIGS. 33 to 41 are flowcharts showing an operation example of the electronic book of this embodiment.
【0130】本実施の形態の電子ブックで、指動作、ペ
ン入力、撮影等の入力があると以下のようにして処理内
容が決定される(図33のステップS10)。現在撮影
モードであれば撮影処理が行われる(ステップS20、
S30)。なお、通常は通常入力モードであり、ツール
バーのカメラアイコンがタッチされると撮影モードに移
行する。撮影モード下で入力を検出した場合には、図2
3〜図25で説明したような撮影処理が行われる。In the electronic book of this embodiment, when there is an input such as a finger operation, a pen input, and a photographing operation, the processing content is determined as follows (step S10 in FIG. 33). If the current shooting mode, the shooting process is performed (step S20,
S30). Normally, the mode is the normal input mode, and when the camera icon on the toolbar is touched, the mode shifts to the shooting mode. When an input is detected in the shooting mode, FIG.
The photographing processing described with reference to FIGS. 3 to 25 is performed.
【0131】例えば、ユーザーが画面中の操作ボタンを
押したのが検出された場合は当該ボタンに対応した処
理、例えば「動画」又は「静止画」ボタンがタッチされ
た場合には動画と静止画の選択処理、「シャッター」ボ
タンがタッチされた場合には静止画を撮影して、撮影画
像データを撮影の日時を付してフォルダファイルに格納
する処理、「録画待機中」ボタンがタッチされた場合に
は、動画の撮影を開始する処理、「録画中」ボタンがタ
ッチされた場合には動画の撮影を終了して、撮影画像デ
ータを撮影の日時を付してフォルダファイルに格納する
処理等が行われる。For example, when it is detected that the user has pressed the operation button on the screen, the processing corresponding to the button is detected. For example, when the “movie” or “still picture” button is touched, the moving picture and the still picture are touched. Selection process, if the "shutter" button is touched, a still image is shot, the shot image data is stored in a folder file with the date and time of shooting, and the "recording standby" button is touched In this case, the process of starting shooting of a moving image, the process of ending the shooting of a moving image when the “recording” button is touched, and storing the shot image data in a folder file with the shooting date and time, etc. Is performed.
【0132】現在メモ入力モードであればメモ入力処理
が行われる(ステップS40、S50)。なお、通常は
通常入力モードであり、ツールバーのメモアイコンがタ
ッチされるとメモ入力モードに移行する。メモ入力モー
ド下で入力を検出した場合には、図26〜図27で説明
したようなメモ入力処理が行われる。If the current mode is the memo input mode, memo input processing is performed (steps S40 and S50). Normally, the mode is the normal input mode. When the memo icon on the toolbar is touched, the mode shifts to the memo input mode. When an input is detected in the memo input mode, the memo input process as described with reference to FIGS.
【0133】例えば、ユーザーが画面中にペンで文字等
を入力したのが検出された場合は、入力内容をリアルタ
イムで画像表示し、入力内容をイメージデータとしてワ
ークエリアに格納する処理が行われる。そして、入力内
容がドラッグ・アンド・ドロップされた場合には、ワー
クエリアに格納されたイメージデータを、格納の日時を
付してフォルダファイルに格納する処理等が行われる。For example, when it is detected that the user has input characters or the like with a pen on the screen, a process of displaying the input content in real time and storing the input content as image data in the work area is performed. When the input content is dragged and dropped, a process of storing the image data stored in the work area with the date and time of storage in a folder file is performed.
【0134】現在フォルダ参照モードであればフォルダ
参照処理が行われる(ステップS52、S54)。な
お、通常は通常入力モードであり、ツールバーの今日の
フォルダアイコンがタッチされるとフォルダ参照モード
に移行する。フォルダ参照モード下で入力を検出した場
合には、図28〜図29で説明したようなフォルダ参照
処理が行われる。If the current mode is the folder reference mode, folder reference processing is performed (steps S52 and S54). Normally, the mode is the normal input mode. When the today's folder icon on the toolbar is touched, the mode is switched to the folder reference mode. When an input is detected in the folder reference mode, the folder reference processing as described with reference to FIGS. 28 to 29 is performed.
【0135】例えば、ユーザーが画面中のアイコンをタ
ッチして「内容を見る」の部分にドラッグ・アンド・ド
ロップされたのが検出された場合には、そのデータ内容
を画面上に表示する処理が行われる。また、同様に「捨
てる」とかかれたゴミ箱部分に入れたのが検出された場
合には、そのデータを消去する処理が行われる。また
「前の日」とかかれた部分がタッチされたのが検出され
ると、前日の「今日のフォルダ画面」を表示する処理が
おこなわれ、「次の日」とかかれた部分がタッチされた
のが検出される、次の日「今日のフォルダ画面」を表示
する処理が行われる。For example, if it is detected that the user has touched the icon on the screen and dragged and dropped it on the "view contents" part, the process of displaying the data contents on the screen is performed. Done. Similarly, if it is detected that the data is put in the trash box marked “Discard”, the data is deleted. Also, if it is detected that the portion marked "Previous Day" has been touched, the process of displaying the "Today's folder screen" of the previous day is performed, and the portion marked "Next Day" is touched. Is detected, the process of displaying the “today's folder screen” the next day is performed.
【0136】通常入力モードにおいて、タッチパネルへ
の指の接触があった場合には以下のような処理が行われ
る(図33のステップS60、図34参照)。In the normal input mode, when a finger touches the touch panel, the following processing is performed (see step S60 in FIG. 33 and FIG. 34).
【0137】ツールバーのアイコンへの接触があった場
合には各種アイコン処理(図41参照)が行われる(ス
テップ図34のS70、S80)。When there is a contact with an icon on the toolbar, various icon processes (see FIG. 41) are performed (S70 and S80 in FIG. 34).
【0138】「検索用タグ」や「本の厚み」や「しお
り」や「しおり挿入用矢印」等の各種入力マークへの接
触であった場合には入力マーク操作処理(図36参照)
が行われる(ステップS90、S100)。Input mark operation processing (see FIG. 36) in the case of contact with various input marks such as “search tag”, “book thickness”, “bookmark”, “bookmark insertion arrow”, etc.
Is performed (steps S90 and S100).
【0139】タッチパネルへの2点目の接触があった場
合、地図画像が表示されている場合には地図操作の処理
を行う(ステップS110、S120、S130)。When the touch panel is touched at the second point or when a map image is displayed, a map operation process is performed (steps S110, S120, S130).
【0140】2点目の接触が無かった場合には、接触点
が移動しているか否かを検出し、移動している場合に
は、接触面積及び接触圧力によって指示入力されている
処理内容を判断する(ステップS140、S150)。If there is no contact at the second point, it is detected whether or not the contact point is moving, and if it is moving, the processing contents indicated and input by the contact area and the contact pressure are determined. A determination is made (steps S140, S150).
【0141】接触面積及び接触圧力が所定値以上である
場合は、表示されているのが地図画像であればスクロー
ル処理を行い、通常の本のページ画像である場合にはペ
ージめくりの処理を行う(ステップS160、S18
0)。When the contact area and the contact pressure are equal to or more than predetermined values, a scroll process is performed if the displayed image is a map image, and a page turning process is performed if the displayed image is a normal book page image. (Steps S160, S18
0).
【0142】接触面積及び接触圧力が所定値以上でない
場合は以下の処理を行う(図35参照)。「今日のフォ
ルダ」へのドラッグ・アンド・ドロップでない場合に、
指で囲まれた情報がある場合には、その指で囲まれた情
報のフローティング処理を行う(ステップS910、S
960、S970)。If the contact area and the contact pressure are not equal to or larger than the predetermined values, the following processing is performed (see FIG. 35). If not drag and drop to "Today's folder"
If there is information surrounded by a finger, floating processing of the information surrounded by the finger is performed (steps S910 and S910).
960, S970).
【0143】「今日のフォルダ」へのドラッグ・アンド
・ドロップである場合、それがメモ内容であれば、メモ
内容をイメージデータとして、格納日時を付してフォル
ダファイルに格納する(ステップS920、S93
0)。In the case of drag and drop to “Today's folder”, if the content is a memo, the memo is stored as image data in a folder file with a storage date and time (steps S920 and S93).
0).
【0144】それがフローティング化されたデータであ
れば、フローティング化されたデータに格納日時を付し
てフォルダファイルに格納する(ステップS940、S
950)。If the data is floating data, the floating data is stored with a storage date and time in a folder file (steps S940 and S940).
950).
【0145】図36は入力マークへのタッチを検出した
場合の処理(図34のステップS100)の詳細な処理
内容を説明するためのフローチャート図である。FIG. 36 is a flow chart for explaining the detailed processing contents of the processing (step S100 in FIG. 34) when a touch on the input mark is detected.
【0146】ユーザーの指が検索用タグ上に接触してい
る場合には検索処理を行う(ステップS210、S22
0)。When the user's finger touches the search tag, a search process is performed (steps S210 and S22).
0).
【0147】ユーザーの指がしおり挿入用矢印マーク上
に接触している場合にはしおり挿入処理を行う(ステッ
プS230、S240)。If the user's finger touches the bookmark insertion arrow mark, bookmark insertion processing is performed (steps S230 and S240).
【0148】ユーザーの指がしおりマーク上に接触して
いる場合にはしおり挿入箇所参照処理を行う(ステップ
S250、S260)。If the user's finger is in contact with the bookmark mark, bookmark insertion point reference processing is performed (steps S250 and S260).
【0149】ユーザーの指が連続ページめくり用マーク
上に接触している場合には連続ページめくり処理を行う
(ステップS270、S280)。If the user's finger is in contact with the continuous page turning mark, a continuous page turning process is performed (steps S270 and S280).
【0150】図37は地図操作の処理(図34のステッ
プS130)の詳細な処理内容を説明するためのフロー
チャート図である。FIG. 37 is a flow chart for explaining the detailed processing contents of the map operation processing (step S130 in FIG. 34).
【0151】2点間の距離の変化を演算し(ステップS
310)、2点間の距離が拡大している場合には、拡大
距離に応じた拡大処理を行う(ステップS320、S3
30)。The change in the distance between the two points is calculated (step S
310) If the distance between the two points is increasing, enlargement processing according to the enlargement distance is performed (steps S320 and S3).
30).
【0152】2点間の距離が縮小している場合には、縮
小距離に応じた縮小処理を行う(ステップS340、S
350)。If the distance between the two points is reduced, a reduction process according to the reduced distance is performed (steps S340 and S340).
350).
【0153】2点間の距離が変化していない場合には、
回転処理を行う(ステップS360、S370)。If the distance between the two points has not changed,
A rotation process is performed (steps S360, S370).
【0154】図38は検索処理(図36のステップS2
20)の詳細な処理内容を説明するためのフローチャー
ト図である。FIG. 38 shows a search process (step S2 in FIG. 36).
FIG. 20 is a flowchart for explaining a detailed processing content of 20).
【0155】ユーザーの指の2点目の接触が検出されな
い場合は、ユーザーの指が接触している検索用タグの検
索条件を満たす情報が記載されているページを検索し、
その先頭ページを表示する通常の検索処理を行う(ステ
ップS410、S420)。When the contact of the second point of the user's finger is not detected, a page in which information satisfying the search condition of the search tag touching the user's finger is described,
A normal search process for displaying the first page is performed (steps S410, S420).
【0156】ユーザーの指の2点目の接触が検出され、
それが検索用タグ上への接触である場合には、2つの検
索用タグの検索条件の論理積が予定されている場合に
は、2つの検索条件の論理積にあたる条件を満たす情報
が記載されているページを検索し、その先頭ページを表
示部に表示する論理積検索処理を行う(ステップS44
0、S450)。The contact of the user's finger at the second point is detected,
If it is a contact on the search tag, information satisfying the condition corresponding to the logical product of the two search conditions is described if the logical product of the search conditions of the two search tags is scheduled. A logical product search process of searching for the current page and displaying the first page on the display unit is performed (step S44).
0, S450).
【0157】図39はページめくり処理(図34のステ
ップS180)の詳細な処理内容を説明するためのフロ
ーチャート図である。FIG. 39 is a flow chart for explaining the detailed processing contents of the page turning processing (step S180 in FIG. 34).
【0158】ユーザーの指の接触位置が画面上の左から
右へ移動している場合、表示されている本が縦書きの本
の場合には、次ページの画像に更新され、横書きの本の
場合には前ページの画像に更新される(ステップS51
0、S520、S530、S540)。When the contact position of the user's finger is moving from left to right on the screen, and when the displayed book is a vertically written book, the image is updated to the image of the next page, and the horizontally written book is updated. In this case, the image is updated to the image of the previous page (step S51).
0, S520, S530, S540).
【0159】ユーザーの指の接触位置が画面上の右から
左へ移動している場合、表示されている本が縦書きの本
の場合には、前ページの画像に更新され、横書きの本の
場合には次ページの画像に更新される(ステップS55
0、S560、S570、S580)。When the contact position of the user's finger is moving from right to left on the screen, and the displayed book is a vertically written book, the image is updated to the image of the previous page, and the horizontally written book is updated. In this case, the image is updated to the image of the next page (step S55).
0, S560, S570, S580).
【0160】図40は連続ページめくり処理(図36の
ステップS280)の詳細な処理内容を説明するための
フローチャート図である。FIG. 40 is a flow chart for explaining the detailed processing contents of the continuous page turning process (step S280 in FIG. 36).
【0161】ユーザーの指の接触圧力を検出し、所定の
圧力値以上で無ければ、連続ページめくりを中止する
(ステップS610、S620、S630)。The contact pressure of the user's finger is detected, and if the pressure is not equal to or higher than the predetermined pressure value, the continuous page turning is stopped (steps S610, S620, S630).
【0162】所定の圧力値以上であれば、以下のように
連続ページめくりを行う。If the pressure is equal to or more than the predetermined pressure value, continuous page turning is performed as follows.
【0163】即ち、ユーザーの指の接触位置が画面上右
端の本の厚みであれば、表示されている本が縦書きの本
の場合には、前ページ方向に連続してページめくりを行
い、横書きの本の場合には次ページ方向に連続してペー
ジめくりを行う(ステップS640、S650、S66
0、S670)。That is, if the contact position of the user's finger is the thickness of the book at the right end on the screen, and if the displayed book is a vertically written book, the page is turned continuously in the previous page direction. In the case of a horizontally written book, page turning is continuously performed in the next page direction (steps S640, S650, S66)
0, S670).
【0164】また、ユーザーの指の接触位置が画面上左
端の本の厚みであれば、表示されている本が縦書きの本
の場合には、次ページ方向に連続してページめくりを行
い、横書きの本の場合には前ページ方向に連続してペー
ジめくりを行う(ステップS640、S680、S69
0、S700)。If the contact position of the user's finger is the thickness of the book at the left end on the screen, and if the displayed book is a vertically written book, the page is turned continuously in the next page direction. In the case of a horizontally written book, page turning is performed continuously in the previous page direction (steps S640, S680, S69).
0, S700).
【0165】図41は各種アイコン処理(図34のステ
ップS80)の詳細な処理内容を説明するためのフロー
チャート図である。FIG. 41 is a flow chart for explaining the detailed processing contents of the various icon processing (step S80 in FIG. 34).
【0166】カメラアイコン上への接触である場合に
は、図23に示すようなカメラ撮影用の操作画面を表示
し撮影モードに移行する。(ステップS810、S82
0)。以下撮影モード中に入力があった場合には、図3
3のステップS30の撮影処理が実行される。If the touch is on the camera icon, an operation screen for camera shooting as shown in FIG. 23 is displayed and the mode is shifted to the shooting mode. (Steps S810, S82
0). Hereinafter, when an input is made during the shooting mode, FIG.
The photographing process of step S30 of 3 is executed.
【0167】メモアイコン上への接触である場合には、
図26に示すようなメモ入力画面を表示しメモ入力モー
ドに移行する。(ステップS830、S840)。以下
メモ入力モード中に入力があった場合には、図33のス
テップS50のメモ入力処理が実行される。If the contact is on the memo icon,
A memo input screen as shown in FIG. 26 is displayed, and the mode shifts to the memo input mode. (Steps S830 and S840). When there is an input during the memo input mode, the memo input process of step S50 in FIG. 33 is executed.
【0168】今日のフォルダアイコン上への接触である
場合には、図28に示すような今日のフォルダ画面を表
示しフォルダ参照モードに移行する。(ステップS85
0、S860)。以下フォルダ参照モード中に入力があ
った場合には、図33のステップS54のフォルダ参照
処理が実行される。If the touch is on the today's folder icon, a today's folder screen as shown in FIG. 28 is displayed, and the mode shifts to the folder reference mode. (Step S85
0, S860). When an input is made during the folder reference mode, the folder reference process of step S54 in FIG. 33 is executed.
【0169】(8)その他種々の実施の形態 なお、本発明は本実施形態に限定されず、本発明の要旨
の範囲内で種々の変形実施が可能である。(8) Other Various Embodiments The present invention is not limited to the present embodiment, and various modifications can be made within the scope of the present invention.
【0170】本実施の形態では、親指と人差し指を使用
して操作入力を行う場合を例にとり説明したがこれに限
られない。例えば、親指と中指等でもよいし、その他の
指の組み合わせでもよい。In this embodiment, the case where the operation input is performed using the thumb and the index finger has been described as an example, but the present invention is not limited to this. For example, a thumb and a middle finger may be used, or a combination of other fingers may be used.
【0171】本実施の形態では、電子ブックの場合を例
に取り説明したため、検索項目の論理積となる検索情報
が記載された先頭ページが表示されたが、電子ブック以
外の携帯情報端末等の場合ページの概念がない場合もあ
る。従って、ページに関係なく情報単位表示する場合で
もよい。In the present embodiment, the case of an electronic book has been described as an example, and therefore, the first page in which search information that is the logical product of the search items is described is displayed. In some cases there is no concept of a page. Therefore, the information unit may be displayed regardless of the page.
【0172】また、本実施の形態では、2つの検索項目
を同時に指で接触すると、当該2つ項目の論理積となる
検索情報を出力する場合を例にとり説明したがこれに限
られない。例えば3つ以上の検索項目を同時に指で接触
して、当該3つ以上の項目の論理積となる検索情報を出
力する場合でもよい。Further, in the present embodiment, an example has been described in which, when two search items are simultaneously touched with a finger, search information that is a logical product of the two items is output, but the present invention is not limited to this. For example, a case may be used in which three or more search items are simultaneously touched with a finger and search information that is a logical product of the three or more items is output.
【0173】また、同時に指で接触した場合に限られ
ず、所定時間内に指で接触した場合も論理積となる検索
情報を出力するようにしてもよい。Further, the search information that is a logical product may be output not only when the finger is touched at the same time but also when the finger is touched within a predetermined time.
【0174】また、同時又は所定時間内に指で接触され
た複数の検索項目に対応する検索条件と論理積の関係を
有する情報がない場合には、論理和及び論理和と論理積
の組み合わせの少なくとも一方を有する情報を表示部に
出力する手段を更に含むよう構成してもよい。If there is no information having a relation between a search condition and a logical product corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time, a logical sum or a combination of a logical sum and a logical product It may be configured to further include a unit for outputting information having at least one of the information to the display unit.
【0175】例えば、「南インド」「宿泊」と「食事」
のタグを同時にタッチした場合に、南インドの宿泊情報
と南インドの食事情報を出力するような構成にしてもよ
い。For example, “South India”, “Lodging” and “Meal”
May be configured to output the South Indian accommodation information and the South Indian meal information when the tags are simultaneously touched.
【0176】特にページに関係なく情報単位で表示する
場合、係る構成をとると有効である。In particular, when displaying in information units regardless of the page, such a configuration is effective.
【0177】例えば、電話番号が格納された電子ブック
や携帯情報端末おいて、電話番号単位で検索出力可能な
場合、目次欄で電話番号の検索項目を複数指定すると、
その指定に応じて自動的に論理和や論理積の関係を有す
る電話番号をリストアップするような場合も含む。即ち
例えば「A地区」と「病院」というように「A地区の病
院」という共通集合が予定された関係にある項目が指定
された場合には、論理積の関係にある情報を検索出力
し、「A地区」と「B地区」や、「病院」と「図書館」
というように共通集合が予定されていない関係にある項
目が指定された場合には論理和の関係にある情報を検索
出力するよう構成してもよい。For example, in a case where an electronic book or a portable information terminal in which telephone numbers are stored can be searched for and output in telephone number units, when a plurality of telephone number search items are specified in the table of contents,
This includes a case where telephone numbers having a logical sum or logical product relationship are automatically listed in accordance with the designation. That is, for example, when an item having a relation in which a common set of “Hospitals in Area A” is scheduled such as “A District” and “Hospital” is specified, information having a logical product relation is retrieved and output. "A district" and "B district" or "Hospital" and "Library"
For example, when an item having a relationship in which a common set is not scheduled is specified, information having a logical OR relationship may be retrieved and output.
【0178】また、本実施の形態では、メモ入力画面、
写真モード画面など全画面として例示されているが、ウ
ィンドウによる部分表示であってもかまわない。In this embodiment, a memo input screen,
Although illustrated as a full screen such as a photo mode screen, a partial display using a window may be used.
【0179】[0179]
【図1】本発明の特徴的機能を有する形態情報機器や電
子ブックの機能ブロック図である。FIG. 1 is a functional block diagram of a form information device or an electronic book having a characteristic function of the present invention.
【図2】図2(A)(B)(C)は本実施の形態の電子
ブックの外観図を示している。FIGS. 2A, 2B, and 2C are external views of an electronic book according to the present embodiment.
【図3】旅行情報ソフトをセットした場合に表示される
画面例を表した図である。FIG. 3 is a diagram showing an example of a screen displayed when travel information software is set.
【図4】地図画像の表示例を表した図である。FIG. 4 is a diagram illustrating a display example of a map image.
【図5】本実施の形態における地図の拡大ジェスチャー
の操作例を説明するための図である。FIG. 5 is a diagram for describing an operation example of a map enlargement gesture according to the present embodiment.
【図6】図6(A)(B)は、本実施の形態における指
動作例を説明するための図である。FIGS. 6A and 6B are diagrams illustrating an example of a finger operation in the present embodiment.
【図7】本実施の形態における地図の拡大ジェスチャー
の他の操作例を説明するための図である。FIG. 7 is a diagram for explaining another operation example of the map enlargement gesture according to the present embodiment.
【図8】本実施の形態における地図のスクロールジェス
チャーの操作例を説明するための図である。FIG. 8 is a diagram illustrating an operation example of a map scroll gesture according to the present embodiment.
【図9】本実施の形態における地図の縮小ジェスチャー
の操作例を説明するための図である。FIG. 9 is a diagram for describing an operation example of a map reduction gesture in the present embodiment.
【図10】本実施の形態における地図の回転ジェスチャ
ーの操作例を説明するための図である。FIG. 10 is a diagram for describing an operation example of a map rotation gesture according to the present embodiment.
【図11】本実施の形態における地図の回転角について
説明するための図である。FIG. 11 is a diagram for describing a rotation angle of a map according to the present embodiment.
【図12】本実施の形態の検索処理の一例について説明
するための図である。FIG. 12 is a diagram for describing an example of a search process according to the present embodiment.
【図13】本実施の形態の論理積検索処理の一例につい
て説明するための図である。FIG. 13 is a diagram for describing an example of a logical product search process according to the present embodiment.
【図14】本実施の形態におけるページめくり操作につ
いて説明するための図である。FIG. 14 is a diagram for describing a page turning operation in the present embodiment.
【図15】本実施の形態における連続ページめくり操作
について説明するための図である。FIG. 15 is a diagram for describing a continuous page turning operation in the present embodiment.
【図16】本実施の形態におけるしおり挿入操作につい
て説明するための図である。FIG. 16 is a diagram for describing a bookmark insertion operation in the present embodiment.
【図17】本実施の形態におけるしおり挿入操作につい
て説明するための図である。FIG. 17 is a diagram for describing a bookmark insertion operation in the present embodiment.
【図18】本実施の形態におけるしおり挿入箇所参照操
作について説明するための図である。FIG. 18 is a diagram for describing a bookmark insertion point reference operation in the present embodiment.
【図19】ツールバーが表示された画面例を説明するた
めの図である。FIG. 19 is a diagram illustrating an example of a screen on which a toolbar is displayed.
【図20】本実施の形態におけるフローティング処理の
操作例を説明するための図である。FIG. 20 is a diagram for describing an operation example of floating processing according to the present embodiment.
【図21】本実施の形態におけるフローティング処理の
操作例を説明するための図である。FIG. 21 is a diagram for describing an operation example of floating processing according to the present embodiment.
【図22】本実施の形態におけるドラッグ・アンド・ド
ロップの操作例を説明するための図である。FIG. 22 is a diagram for describing an example of a drag-and-drop operation in the present embodiment.
【図23】本実施の形態のカメラ撮影用操作画面を表し
た図である。FIG. 23 is a diagram illustrating a camera shooting operation screen according to the present embodiment.
【図24】本実施の形態における静止画の撮影処理を説
明するための図である。FIG. 24 is a diagram for describing still image shooting processing according to the present embodiment.
【図25】本実施の形態における動画の撮影処理を説明
するための図である。FIG. 25 is a diagram for describing moving image shooting processing according to the present embodiment.
【図26】本実施の形態におけるメモ入力処理を説明す
るための図である。FIG. 26 is a diagram for explaining a memo input process in the present embodiment.
【図27】本実施の形態におけるメモ入力のドラッグ・
アンド・ドロップ操作を説明するための図である。FIG. 27 shows a drag / drop operation for memo input in the present embodiment.
It is a figure for explaining an AND drop operation.
【図28】本実施の形態における今日のフォルダ参照画
面を表した図である。FIG. 28 is a diagram illustrating a today's folder reference screen according to the present embodiment.
【図29】本実施の形態における今日のフォルダ参照処
理を説明するための図である。FIG. 29 is a diagram for explaining today's folder reference processing in the present embodiment.
【図30】本実施の形態における今日のフォルダの活用
の一例を説明するための図である。FIG. 30 is a diagram for describing an example of utilization of today's folder in the present embodiment.
【図31】本実施形態の電子ブックのハードウエア構成
について説明するための図である。FIG. 31 is a diagram illustrating a hardware configuration of the electronic book according to the embodiment.
【図32】本実施の形態の電子ブックの機能ブロック図
の一例である。FIG. 32 is an example of a functional block diagram of an electronic book of the present embodiment.
【図33】本実施の動作例を表したフローチャート図で
ある。FIG. 33 is a flowchart illustrating an operation example of the present embodiment.
【図34】本実施の動作例を表したフローチャート図で
ある。FIG. 34 is a flowchart illustrating an operation example of the present embodiment.
【図35】本実施の動作例を表したフローチャート図で
ある。FIG. 35 is a flowchart illustrating an operation example of the present embodiment.
【図36】本実施の動作例(入力マーク操作処理)を表
したフローチャート図である。FIG. 36 is a flowchart illustrating an operation example (input mark operation processing) of the present embodiment.
【図37】本実施の動作例(地図操作処理)を表したフ
ローチャート図である。FIG. 37 is a flowchart illustrating an operation example (map operation processing) of the present embodiment.
【図38】本実施の動作例(検索処理)を表したフロー
チャート図である。FIG. 38 is a flowchart illustrating an operation example (search processing) of the present embodiment.
【図39】本実施の動作例(ページめくり処理)を表し
たフローチャート図である。FIG. 39 is a flowchart illustrating an operation example of the present embodiment (page turning processing).
【図40】本実施の動作例(連続ページめくり処理)を
表したフローチャート図である。FIG. 40 is a flowchart illustrating an operation example of this embodiment (continuous page turning processing).
【図41】本実施の動作例(各種アイコン処理)を表し
たフローチャート図である。FIG. 41 is a flowchart showing an operation example (various icon processing) of the embodiment.
【図42】本実施の形態におけるフローティング処理の
他の操作例を説明するための図である。FIG. 42 is a diagram for describing another operation example of the floating process in the present embodiment.
【図43】複数の検索条件を指定して検索する際の一般
的な情報検索の一例を説明するための図である。FIG. 43 is a diagram illustrating an example of a general information search when performing a search by designating a plurality of search conditions.
10 指動作検出部 20 処理部 30 操作内容判断部 40 地図操作処理部 42 拡大処理部 44 縮小処理部 46 回転処理部 48 スクロール処理部 50 画像生成部 60 表示部 70 情報記憶媒体 1010 CPU(中央処理ユニット) 1020 メモリ 1030 ディスプレイコントローラ 1040 タッチパネルコントローラ 1050 バス 1060 タッチパネル 1070 ディスプレイ 1080 ディスクドライブコントローラ 1090 ディスクドライブ 1100 処理部 1110 指動作検出部 1120 入力部(ペン) 1130 撮影部(カメラ) 1140 処理内容決定部 1150 各種処理部 1160 地図操作処理部 1162 拡大処理部 1164 縮小処理部 1166 回転処理部 1168 スクロール処理部 1170 検索処理部 1172 通常の検索処理部 1174 論理積検索処理部 1182 ページめくり処理部 1184 連続ページめくり処理部 1186 しおり挿入処理部 1188 しおり挿入箇所参照処理部 1192 フローティング処理部 1194 撮影処理部 1196 メモ入力処理部 1198 フォルダ参照処理部 1200 画像生成部 1220 情報記憶媒体 1230 記憶部 1232 フォルダファイル 1240 表示部 Reference Signs List 10 finger motion detection unit 20 processing unit 30 operation content judgment unit 40 map operation processing unit 42 enlargement processing unit 44 reduction processing unit 46 rotation processing unit 48 scroll processing unit 50 image generation unit 60 display unit 70 information storage medium 1010 CPU (central processing) Unit) 1020 memory 1030 display controller 1040 touch panel controller 1050 bus 1060 touch panel 1070 display 1080 disk drive controller 1090 disk drive 1100 processing unit 1110 finger motion detection unit 1120 input unit (pen) 1130 imaging unit (camera) 1140 processing content determination unit 1150 various Processing unit 1160 Map operation processing unit 1162 Enlargement processing unit 1164 Reduction processing unit 1166 Rotation processing unit 1168 Scroll processing unit 1170 Search processing 1172 Normal search processing unit 1174 Logical product search processing unit 1182 Page turning processing unit 1184 Continuous page turning processing unit 1186 Bookmark insertion processing unit 1188 Bookmark insertion point reference processing unit 1192 Floating processing unit 1194 Image processing unit 1196 Memo input processing unit 1198 Folder Reference processing unit 1200 Image generation unit 1220 Information storage medium 1230 Storage unit 1232 Folder file 1240 Display unit
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 15/403 340C (72)発明者 根橋 聡 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 (72)発明者 若井 洋一 長野県諏訪市大和3丁目3番5号 セイコ ーエプソン株式会社内 Fターム(参考) 5B019 DA08 DA10 HC00 HE19 5B075 ND03 ND06 ND12 NK02 NK39 PP10 PP13 PQ02 UU11 UU13 UU40 5E501 AA04 AA12 AC16 AC33 AC35 BA05 CA04 CB05 CB11 CB14 CC04 CC14 EA05 EA07 EA08 EA10 EA13 EB05 EB06 FA03 FA04 FA12 FA14 FA15 FB04 FB24 FB32 FB33 FB34 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06F 15/403 340C (72) Inventor Satoshi Nebashi 3-5-3 Yamato, Suwa-shi, Nagano Prefecture Seiko Epson Corporation (72) Inventor Yoichi Wakai 3-5-5 Yamato, Suwa-shi, Nagano Seiko Epson Corporation F-term (reference) 5B019 DA08 DA10 HC00 HE19 5B075 ND03 ND06 ND12 NK02 NK39 PP10 PP13 PQ02 UU11 UU13 UU40 5E501 AA04 A AC33 AC35 BA05 CA04 CB05 CB11 CB14 CC04 CC14 EA05 EA07 EA08 EA10 EA13 EB05 EB06 FA03 FA04 FA12 FA14 FA15 FB04 FB24 FB32 FB33 FB34
Claims (5)
示する表示部を含む携帯情報機器であって、 表示された複数の検索項目のうちの少なくとも2つを、
同時又は所定時間内に指で接触することにより複数の検
索条件を指定した検索実行を入力する検索入力手段と、 同時又は所定時間内に指で接触された複数の検索項目に
対応する検索条件と論理積の関係を有する情報を検索す
る情報検索手段と、を含み、 前記検索入力手段が、 表示部に接触させた指の位置を検出する手段と、 検出された指の位置に基づき、指で接触された検索項目
を判断する手段と、を含むことを特徴とする携帯情報機
器。1. A portable information device including a display unit for displaying search items corresponding to a plurality of search conditions, wherein at least two of the displayed plurality of search items are:
A search input means for inputting a search execution specifying a plurality of search conditions by touching with a finger at the same time or within a predetermined time; and a search condition corresponding to a plurality of search items touched by a finger at the same time or within a predetermined time. Information search means for searching for information having a logical product relationship, wherein the search input means detects a position of a finger that has been brought into contact with a display unit, and based on the detected position of the finger, Means for judging the contacted search item.
対応する検索条件と論理積の関係を有する情報がない場
合には、論理和及び論理和と論理積の組み合わせの少な
くとも一方を有する情報を検索することを特徴とする携
帯情報機器。2. The information retrieval device according to claim 1, wherein the information retrieval means is configured to determine that there is no information having a logical AND relationship with a search condition corresponding to a plurality of search items touched with a finger simultaneously or within a predetermined time. A portable information device for retrieving information having at least one of a logical sum and a combination of a logical sum and a logical product.
情報機器であって、電子ブックとして使用されることを
特徴とする携帯情報機器。3. The portable information device according to claim 1, wherein the portable information device is used as an electronic book.
して出力するページ画像出力手段を更に含み、 前記ページ画像出力手段は、検索条件を満たす情報が記
載された先頭ページの画像を出力することを特徴とする
携帯情報機器。4. The image processing apparatus according to claim 3, further comprising a page image output unit that outputs information provided with a page number as image information in page units, wherein the page image output unit describes information satisfying a search condition. A portable information device for outputting an image of a first page.
力する表示部を含む携帯情報機器及び電子ブックの少な
くとも一方に使用する情報記憶媒体であって、 表示された複数の検索項目のうちの少なくとも2つを、
同時又は所定時間内に指で接触することにより複数の検
索条件を指定した検索実行を入力するための情報と、 同時又は所定時間内に指で接触された複数の検索項目に
対応する検索条件と論理積の関係を有する情報を検索す
るための情報とを含み、 前記検索実行を入力するための情報が、 表示部に接触させた指の位置を検出するための情報と、 検出された指の位置に基づき、指で接触された検索項目
を判断するための情報と、を含むことを特徴とする情報
記憶媒体。5. An information storage medium for use in at least one of a portable information device and an electronic book including a display unit for outputting a search item corresponding to a plurality of search conditions, the information storage medium comprising: At least two,
Information for inputting a search execution specifying a plurality of search conditions by touching with a finger at the same time or within a predetermined time, and search conditions corresponding to a plurality of search items touched with a finger at the same time or within a predetermined time Information for searching for information having a logical product relationship, wherein the information for inputting the execution of the search includes information for detecting the position of the finger that has been brought into contact with the display unit, and information of the detected finger. An information storage medium comprising: information for determining a search item touched by a finger based on a position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35072998A JP2000163443A (en) | 1998-11-25 | 1998-11-25 | Portable information devices and information storage media |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35072998A JP2000163443A (en) | 1998-11-25 | 1998-11-25 | Portable information devices and information storage media |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000163443A true JP2000163443A (en) | 2000-06-16 |
Family
ID=18412465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35072998A Withdrawn JP2000163443A (en) | 1998-11-25 | 1998-11-25 | Portable information devices and information storage media |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000163443A (en) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006268073A (en) * | 2005-03-22 | 2006-10-05 | Matsushita Electric Ind Co Ltd | Data processing device |
JP2009003662A (en) * | 2007-06-21 | 2009-01-08 | Hitachi Software Eng Co Ltd | Electronic board system |
JP2010044520A (en) * | 2008-08-11 | 2010-02-25 | Sony Ericsson Mobile Communications Ab | Input processor, input processing method, input processing program and mobile terminal device |
JP2011014044A (en) * | 2009-07-03 | 2011-01-20 | Sony Corp | Apparatus and method for controlling operation and computer program |
JP2011164949A (en) * | 2010-02-10 | 2011-08-25 | Canon Inc | Information processor, retrieval condition setting method, program, and recording medium |
JP2012008780A (en) * | 2010-06-24 | 2012-01-12 | Rakuten Inc | Information provision server, information provision method, information provision program, and computer readable storage medium |
JP2012216223A (en) * | 2012-06-08 | 2012-11-08 | Casio Comput Co Ltd | Display device |
WO2014041931A1 (en) * | 2012-09-13 | 2014-03-20 | 株式会社エヌ・ティ・ティ・ドコモ | User interface device, search method, and program |
US8704804B2 (en) | 2005-10-05 | 2014-04-22 | Japan Display West Inc. | Display apparatus and display method |
US9037995B2 (en) | 2007-01-07 | 2015-05-19 | Apple Inc. | Application programming interfaces for scrolling operations |
USRE45559E1 (en) | 1997-10-28 | 2015-06-09 | Apple Inc. | Portable computers |
JP2015204048A (en) * | 2014-04-16 | 2015-11-16 | 日本電気株式会社 | Electronic book reader, specific description content display method and specific description content display program |
US9285908B2 (en) | 2009-03-16 | 2016-03-15 | Apple Inc. | Event recognition |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US9323335B2 (en) | 2008-03-04 | 2016-04-26 | Apple Inc. | Touch event model programming interface |
US9389712B2 (en) | 2008-03-04 | 2016-07-12 | Apple Inc. | Touch event model |
US9483121B2 (en) | 2009-03-16 | 2016-11-01 | Apple Inc. | Event recognition |
US9529519B2 (en) | 2007-01-07 | 2016-12-27 | Apple Inc. | Application programming interfaces for gesture operations |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
US9798459B2 (en) | 2008-03-04 | 2017-10-24 | Apple Inc. | Touch event model for web pages |
JP2018092663A (en) * | 2018-03-01 | 2018-06-14 | キヤノン株式会社 | Display control device and control method of display control device |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
US10963142B2 (en) | 2007-01-07 | 2021-03-30 | Apple Inc. | Application programming interfaces for scrolling |
-
1998
- 1998-11-25 JP JP35072998A patent/JP2000163443A/en not_active Withdrawn
Cited By (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USRE46548E1 (en) | 1997-10-28 | 2017-09-12 | Apple Inc. | Portable computers |
USRE45559E1 (en) | 1997-10-28 | 2015-06-09 | Apple Inc. | Portable computers |
JP2006268073A (en) * | 2005-03-22 | 2006-10-05 | Matsushita Electric Ind Co Ltd | Data processing device |
US8704804B2 (en) | 2005-10-05 | 2014-04-22 | Japan Display West Inc. | Display apparatus and display method |
US10613741B2 (en) | 2007-01-07 | 2020-04-07 | Apple Inc. | Application programming interface for gesture operations |
US9665265B2 (en) | 2007-01-07 | 2017-05-30 | Apple Inc. | Application programming interfaces for gesture operations |
US11449217B2 (en) | 2007-01-07 | 2022-09-20 | Apple Inc. | Application programming interfaces for gesture operations |
US10963142B2 (en) | 2007-01-07 | 2021-03-30 | Apple Inc. | Application programming interfaces for scrolling |
US11954322B2 (en) | 2007-01-07 | 2024-04-09 | Apple Inc. | Application programming interface for gesture operations |
US9760272B2 (en) | 2007-01-07 | 2017-09-12 | Apple Inc. | Application programming interfaces for scrolling operations |
US9037995B2 (en) | 2007-01-07 | 2015-05-19 | Apple Inc. | Application programming interfaces for scrolling operations |
US9448712B2 (en) | 2007-01-07 | 2016-09-20 | Apple Inc. | Application programming interfaces for scrolling operations |
US10817162B2 (en) | 2007-01-07 | 2020-10-27 | Apple Inc. | Application programming interfaces for scrolling operations |
US9575648B2 (en) | 2007-01-07 | 2017-02-21 | Apple Inc. | Application programming interfaces for gesture operations |
US10175876B2 (en) | 2007-01-07 | 2019-01-08 | Apple Inc. | Application programming interfaces for gesture operations |
US9529519B2 (en) | 2007-01-07 | 2016-12-27 | Apple Inc. | Application programming interfaces for gesture operations |
US10481785B2 (en) | 2007-01-07 | 2019-11-19 | Apple Inc. | Application programming interfaces for scrolling operations |
JP2009003662A (en) * | 2007-06-21 | 2009-01-08 | Hitachi Software Eng Co Ltd | Electronic board system |
US12236038B2 (en) | 2008-03-04 | 2025-02-25 | Apple Inc. | Devices, methods, and user interfaces for processing input events |
US9389712B2 (en) | 2008-03-04 | 2016-07-12 | Apple Inc. | Touch event model |
US9323335B2 (en) | 2008-03-04 | 2016-04-26 | Apple Inc. | Touch event model programming interface |
US10521109B2 (en) | 2008-03-04 | 2019-12-31 | Apple Inc. | Touch event model |
US11740725B2 (en) | 2008-03-04 | 2023-08-29 | Apple Inc. | Devices, methods, and user interfaces for processing touch events |
US9971502B2 (en) | 2008-03-04 | 2018-05-15 | Apple Inc. | Touch event model |
US9690481B2 (en) | 2008-03-04 | 2017-06-27 | Apple Inc. | Touch event model |
US9720594B2 (en) | 2008-03-04 | 2017-08-01 | Apple Inc. | Touch event model |
US9798459B2 (en) | 2008-03-04 | 2017-10-24 | Apple Inc. | Touch event model for web pages |
US10936190B2 (en) | 2008-03-04 | 2021-03-02 | Apple Inc. | Devices, methods, and user interfaces for processing touch events |
JP2010044520A (en) * | 2008-08-11 | 2010-02-25 | Sony Ericsson Mobile Communications Ab | Input processor, input processing method, input processing program and mobile terminal device |
US10719225B2 (en) | 2009-03-16 | 2020-07-21 | Apple Inc. | Event recognition |
US11755196B2 (en) | 2009-03-16 | 2023-09-12 | Apple Inc. | Event recognition |
US9965177B2 (en) | 2009-03-16 | 2018-05-08 | Apple Inc. | Event recognition |
US12265704B2 (en) | 2009-03-16 | 2025-04-01 | Apple Inc. | Event recognition |
US11163440B2 (en) | 2009-03-16 | 2021-11-02 | Apple Inc. | Event recognition |
US9483121B2 (en) | 2009-03-16 | 2016-11-01 | Apple Inc. | Event recognition |
US9285908B2 (en) | 2009-03-16 | 2016-03-15 | Apple Inc. | Event recognition |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
JP2011014044A (en) * | 2009-07-03 | 2011-01-20 | Sony Corp | Apparatus and method for controlling operation and computer program |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US10732997B2 (en) | 2010-01-26 | 2020-08-04 | Apple Inc. | Gesture recognizers with delegates for controlling and modifying gesture recognition |
US12061915B2 (en) | 2010-01-26 | 2024-08-13 | Apple Inc. | Gesture recognizers with delegates for controlling and modifying gesture recognition |
JP2011164949A (en) * | 2010-02-10 | 2011-08-25 | Canon Inc | Information processor, retrieval condition setting method, program, and recording medium |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
JP2012008780A (en) * | 2010-06-24 | 2012-01-12 | Rakuten Inc | Information provision server, information provision method, information provision program, and computer readable storage medium |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
JP2012216223A (en) * | 2012-06-08 | 2012-11-08 | Casio Comput Co Ltd | Display device |
JP5788605B2 (en) * | 2012-09-13 | 2015-10-07 | 株式会社Nttドコモ | User interface device, search method and program |
WO2014041931A1 (en) * | 2012-09-13 | 2014-03-20 | 株式会社エヌ・ティ・ティ・ドコモ | User interface device, search method, and program |
CN104380233A (en) * | 2012-09-13 | 2015-02-25 | 株式会社Ntt都科摩 | User interface device, search method and program |
US11429190B2 (en) | 2013-06-09 | 2022-08-30 | Apple Inc. | Proxy gesture recognizer |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
US12379783B2 (en) | 2013-06-09 | 2025-08-05 | Apple Inc. | Proxy gesture recognizer |
JP2015204048A (en) * | 2014-04-16 | 2015-11-16 | 日本電気株式会社 | Electronic book reader, specific description content display method and specific description content display program |
JP2018092663A (en) * | 2018-03-01 | 2018-06-14 | キヤノン株式会社 | Display control device and control method of display control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4542637B2 (en) | Portable information device and information storage medium | |
JP2000163444A (en) | Portable information devices and information storage media | |
JP2000163193A (en) | Portable information devices and information storage media | |
JP2000163443A (en) | Portable information devices and information storage media | |
JP5075473B2 (en) | Portable information device and information storage medium | |
JP5111003B2 (en) | Portable information device, electronic book, information storage medium, portable information device control method, and electronic book control method | |
US9928218B2 (en) | Electronic text display upon changing a device orientation | |
JP5043748B2 (en) | CONTENT MANAGEMENT DEVICE, CONTENT MANAGEMENT DEVICE CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM | |
US20080259057A1 (en) | Electronic Reading Device Mimicking a Reading experience of a Paper Document | |
US20140189593A1 (en) | Electronic device and input method | |
CN102473066A (en) | An system and method for displaying, navigating and selecting electronically stored content on a multifunction handheld device | |
US9753630B1 (en) | Card stack navigation | |
JP6271125B2 (en) | Electronic device, display method, and program | |
JP2010134938A (en) | Portable information apparatus and information storage medium | |
JP2012018687A (en) | Portable information apparatus and information storage medium | |
JP2016001486A (en) | Portable information apparatus, electronic book, and information storage medium | |
JP5835592B2 (en) | Portable information device, electronic book and information storage medium | |
JP5749245B2 (en) | Electronic device, display method, and display program | |
JP5764542B2 (en) | Portable information device, electronic book and information storage medium | |
JP2013050972A (en) | Portable information apparatus, electronic book and program | |
AU2018202847B2 (en) | Electronic text manipulation and display | |
JP2013041609A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
JP2013041607A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
JP2013050971A (en) | Portable information apparatus, server, electronic book, program and information storage medium | |
JP2013041608A (en) | Portable information apparatus, server, electronic book, program and information storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060207 |