[go: up one dir, main page]

JP2004078923A - Comics editing support device - Google Patents

Comics editing support device Download PDF

Info

Publication number
JP2004078923A
JP2004078923A JP2003206461A JP2003206461A JP2004078923A JP 2004078923 A JP2004078923 A JP 2004078923A JP 2003206461 A JP2003206461 A JP 2003206461A JP 2003206461 A JP2003206461 A JP 2003206461A JP 2004078923 A JP2004078923 A JP 2004078923A
Authority
JP
Japan
Prior art keywords
frame
image
editing
unit
comic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003206461A
Other languages
Japanese (ja)
Inventor
Katsu Miyake
三宅 克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shogakukan Inc
Original Assignee
Shogakukan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shogakukan Inc filed Critical Shogakukan Inc
Priority to JP2003206461A priority Critical patent/JP2004078923A/en
Publication of JP2004078923A publication Critical patent/JP2004078923A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a comics editing support device for supporting the editing of comics. <P>SOLUTION: The comics editing support device 100 is provided with an editing support part 20, display control part 60 and input support part 70. The display control part 60 generates data for display with respect to digital comics images of the comics original, which is sent out to a monitor 16. As a result, the digital comics images corresponding to the comics original are displayed in the monitor 16. The input support part 70 supports the editing input of the digital comics images. A user performs the editing of the comics original by using a function of each module included in the editing support part 20. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、漫画原稿の編集を支援する漫画編集支援装置、漫画編集支援システムおよび漫画編集支援プログラムを記録した記録媒体に関し、特に、漫画を完成させるために必要な様々な編集処理の支援を可能とする漫画編集支援装置、漫画編集支援システムおよび漫画編集支援プログラムを記録した記録媒体に関する。
【0002】
【従来の技術】
漫画のジャンルには、風刺画などの一コマ漫画や、新聞などに掲載される四コマ漫画、さらには週刊誌ないしは月刊誌などに掲載されるストーリー漫画、ギャグ漫画ないしは少女漫画など、様々なものがある。その中でも、特に、劇画タッチの漫画では、リアリティを追求するために写真から絵をおこしたりするなどして、実際の風景、物などを模写するような手法がとられることがある。現実の情景に極近似した絵をペンないしは筆で描くことによって、写真とは異なる味わいが生み出される。
【0003】
また、漫画絵は静止画であるため、人物や自動車などの対象物をそのまま紙面に書いただけでは、躍動感または臨場感が生まれない。そのため、静止画上で躍動感や臨場感を出すために、様々な表現手法が考え出されてきた。例えば、野球の漫画で、バットにボールがあたる瞬間をとらえた絵では、ボールがバットの圧力で凹んでいるように描かれたり、また、人物が走っている絵では、スピード感を出すために、走っている方向にスピード線が描かれたりする。さらに、登場人物の状態を表現するために、人物が焦りの心理状態にあるときに、額に汗が描かれたり、頭に物がぶつかったときに、頭にバンソウコウが描かれたりする。これらは、絵画とは明らかに一線を画した独特の表現手法であり、多くの漫画において多用されている。また、読者も、これまでの経験から、漫画の作者がその表現手法を用いて何を伝えたいのかを理解することができる。
【0004】
一般に、漫画は、以下の手順で作成される。まず、登場人物が設定され、あらすじが決められる。そのあらすじを元に、脚本が作られ、それからネームと呼ばれる漫画の元絵が作成される。ネームは、紙面にコマを割り、登場人物などを言わばなぐり書きに近い状態で書いたものである。それから、原稿に鉛筆による下書きがなされる。続いて、ペン入れ、ベタや、ゴムかけなどの処理がなされ、それからトーン貼りが行われる。これらの作業は、漫画家ないしはそのアシスタントにより手作業で行われている。それから、原稿が、雑誌社などの編集部に持ち込まれ、そこで、吹出し内に手書きで書かれたセリフを、ワープロ文字で切り貼りして置き換える作業が行われ、漫画原稿が完成する。その後、漫画は、印刷され、流通される。
【0005】
【発明が解決しようとする課題】
このように、従来の漫画原稿の作成は、基本的に全て手作業で行われており、膨大な労力と時間とが費やされている。プロの漫画家やアシスタントでも、描く対象や、行う作業内容についてそれぞれ得手不得手があるため、全工程を一様に手作業で行うことは効率がよいとは言えない。
【0006】
そのため本発明は、このような漫画家ないしはアシスタント、さらには雑誌社の編集部といった漫画原稿の作成に携わる人達の負担を軽減するために、漫画の編集ないしは作成を支援する装置およびシステムを提供する。
【0007】
また、漫画は著作物であり、漫画原稿作成の各段階において著作権が発生するため、登場人物や背景などの対象物を著作者に無断で書き換えることはできない。そのような理由から、本発明は、一旦漫画家等により作成された漫画原稿の原案を、著作権に抵触しない範囲で、簡単に漫画の編集支援を可能とする装置およびシステムを提供する。
【0008】
さらに、近年、漫画は、多種多様な分野で用いられており、プロの漫画家だけでなく、アマチュアでも、漫画の作成ないしは編集を支援することが可能な装置およびシステムの開発が望まれている。本発明は、この点にも解決を与える。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明の第1の形態が、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれたオフラインの漫画原稿のディジタル漫画画像についてその表示用データを生成し、これをモニタへ送出する表示制御部と、ディジタル漫画画像において、コマ枠に基づき、対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、ディジタル漫画画像の編集入力を支援する入力支援部とを備えたことを特徴とする漫画編集支援装置を提供する。この形態による漫画編集支援装置は、ユーザによるオフラインの漫画原稿の効率的な編集を支援することができる。
【0010】
編集支援部は、ディジタル漫画画像のコマ枠を検出するコマ枠検出部を有することが好ましい。このコマ枠検出部は、ディジタル漫画画像の実質的に閉じた線分に基づいて、コマ枠を検出してもよい。また、コマ枠検出部は、入力支援部を介して特定の線分が指定された場合に、当該線分を含むコマ枠を検出してもよい。
【0011】
編集支援部は、ディジタル漫画画像におけるコマ枠内において入力支援部を介して指定された位置に、所定の形状を有する、テキストの書込み可能な吹出し領域を設定する吹出し設定部を有することが好ましい。編集支援部は、縦書き用の吹出し領域のフォーマットと、横書き用の吹出し領域のフォーマットとを格納するデータベースを有することが好ましい。
【0012】
吹出し設定部は、ディジタル漫画画像において吹出し領域の一部がコマ枠からはみ出る場合に、コマ枠からはみ出た吹出し領域の吹出し線を切り取り、コマ枠内に存在する吹出し領域を、テキストの書込み可能な領域として設定してもよい。また、吹出し設定部は、複数の吹出し領域の一部が互いに重なって設定された場合に、重なり部分を画定する吹出し線を消去してもよい。
【0013】
編集支援部は、入力支援部を介して入力されたテキストを、吹出し領域に挿入させるテキスト挿入部を有することが好ましい。吹出し設定部は、テキスト挿入部により挿入されるテキストのフォントサイズに応じて、吹出し領域の大きさを変更してもよい。また、テキスト挿入部は、吹出し領域の大きさに応じて、テキストのフォントサイズを定めてもよい。
【0014】
編集支援部は、コマ枠内において入力支援部を介して指定された指定領域に、入力支援部を介して選択されたテクスチャ画像を貼り付けるテクスチャ画像設定部を有することが好ましい。テクスチャ画像設定部は、複数のテクスチャ画像を、指定領域に貼り付け可能とすることが好ましい。また、テクスチャ画像設定部は、複数のテクスチャ画像を指定領域に貼り付ける場合に、入力支援部を介して各テクスチャ画像の貼り付け位置を調整可能とさせてもよい。また、テクスチャ画像設定部は、モアレが生じないように複数のテクスチャ画像を重ねてもよい。
【0015】
編集支援部は、コマ枠内において、所定の効果線を設定する効果線設定部を有することが好ましい。効果線設定部は、入力支援部を介して指定された中心点に向かって先細りとなる先細り線をディジタル漫画画像中に配置してもよい。効果線設定部は、入力支援部を介して指定された境界に先細り線の細端を位置させた複数の先細り線を配置してもよい。効果線設定部は、コマ枠に先細り線の太端を位置させた複数の先細り線を配置してもよい。入力支援部を介して、対象物または対象物の周辺領域の少なくとも一部の領域と、一部の領域における方向が指定されると、効果線設定部は、一部の領域の範囲内において、方向に沿った効果線を設定してもよい。
【0016】
また、本発明の第2の形態が、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれた漫画原稿のディジタル漫画画像についてその表示用データを生成し、これをモニタへ送出する表示制御部と、ディジタル漫画画像において、コマ枠に基づき、対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、ディジタル漫画画像の編集入力を支援する入力支援部とを備え、編集支援部は、ディジタル漫画画像において、対象物の主観的または客観的な状態の設定を支援する状態設定支援部を有することを特徴とする漫画編集支援装置を提供する。この形態による漫画編集支援装置は、ユーザによる漫画原稿の編集を支援し、特に描かれた対象物の状態を表現する編集を支援する。この漫画編集支援装置は、第1の形態における漫画編集支援装置の特徴の一部または全部を含んでいてもよい。
【0017】
編集支援部は、複数のキーワードと、その各々に対応づけられた対象物の主観的または客観的な状態を示す状態画像を格納するデータベースを有し、状態設定支援部は、入力支援部を介して複数のキーワードから一つのキーワードが選択されると、そのキーワードに対応づけられた状態画像をモニタに表示させてもよい。データベースは、対象物の心理的な状態を示すキーワードと、対象物の動きの状態を示すキーワードを格納していてもよい。編集支援部は、コマ枠に基づき、対象物の部位を特定する部位特定部を有し、データベースは、状態画像を貼り付ける貼付け位置を、対象物の部位に関連して格納しており、入力支援部を介して状態画像が選択された場合、部位特定部により特定される部位に基づき、データベースに格納された貼付け位置に、状態画像が貼り付けられてもよい。
【0018】
状態設定支援部は、入力支援部を介して、焦りの心理状態に関連するキーワードが選択された場合に、モニタに、汗を表現する状態画像を表示させてもよい。また、状態設定支援部は、入力支援部を介して、対象物の動きの状態に関連するキーワードが選択され、その動きの方向が指定された場合に、対象物またはその周辺の領域に、対象物のスピード感を表現する状態画像を表示させてもよい。また、状態設定支援部は、入力支援部を介して、擬態音に関連するキーワードが選択された場合に、その擬態音がディジタル漫画画像上で読みやすいように、擬態音を表現する状態画像をディジタル漫画画像中に表示させてもよい。
【0019】
本発明の第3の形態は、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれた漫画原稿のディジタル漫画画像についてその表示用データを生成し、これをモニタへ送出する表示制御部と、ディジタル漫画画像において、対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、ディジタル漫画画像の編集入力を支援する入力支援部とを備え、編集支援部は、ディジタル漫画画像において、対象物の主観的または客観的な状態の設定を支援する状態設定支援部を有することを特徴とする漫画編集支援装置を提供する。
【0020】
本発明の第4の形態は、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれたオフラインの漫画原稿をディジタル信号に変換するディジタル信号生成部と、ディジタル信号を受け取り、漫画原稿のディジタル漫画画像についてその表示用データを生成する表示制御部と、ディジタル漫画画像を表示させるモニタと、ディジタル漫画画像において、コマ枠に基づき、対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、ディジタル漫画画像の編集入力を支援する入力支援部とを備えたことを特徴とする漫画編集支援システムを提供する。ディジタル信号生成部は、漫画原稿を読み込んで、ディジタル信号を生成するイメージスキャナ、または漫画原稿を撮像して、ディジタル信号を生成するディジタルカメラを含んでもよい。
【0021】
本発明の第5の形態は、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれた漫画原稿のディジタル漫画画像についてその表示用データを生成する表示制御部と、ディジタル漫画画像を表示させるモニタと、ディジタル漫画画像において、コマ枠に基づき、対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、ディジタル漫画画像の編集入力を支援する入力支援部とを備え、編集支援部は、ディジタル漫画画像において、対象物の主観的または客観的な状態の設定を支援する状態設定支援部を有することを特徴とする漫画編集支援システムを提供する。
【0022】
本発明の第4および第5の形態である漫画編集支援システムにおいて、編集支援部は、ディジタル漫画画像のコマ枠を検出するコマ枠検出部を有することが好ましい。また、編集支援部は、ディジタル漫画画像におけるコマ枠内において入力支援部を介して指定された位置に、所定の形状を有する、テキストの書込み可能な吹出し領域を設定する吹出し設定部を有することが好ましい。
【0023】
本発明の第6の形態は、コンピュータによって、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれたオフラインの漫画原稿の編集を支援する漫画編集支援プログラムを記録した記録媒体であって、漫画編集支援プログラムは、コンピュータに、漫画原稿のディジタル漫画画像の表示用データを取り込ませ、モニタへ送出させるための機能と、ディジタル漫画画像に編集を施すための編集支援表示をモニタに表示させるための機能と、ディジタル漫画画像のコマ枠を検出させるための機能とを備えさせることを特徴とする漫画編集支援プログラムを記録した記録媒体を提供する。
【0024】
本発明の第7の形態は、コンピュータによって、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれた漫画原稿の編集を支援する漫画編集支援プログラムを記録した記録媒体であって、漫画編集支援プログラムは、コンピュータに、漫画原稿のディジタル漫画画像の表示用データを、モニタへ送出させるための機能と、ディジタル漫画画像に編集を施すための編集支援表示をモニタに表示させるための機能と、ディジタル漫画画像において、対象物の主観的または客観的な状態の設定を支援させるための機能とを備えさせることを特徴とする漫画編集支援プログラムを記録した記録媒体を提供する。
【0025】
なお、以上の形態またはその要素の任意の組み合わせもまた、本発明として有効である。また、装置として説明した形態や要素を方法のステップに置き換えたものも本発明として有効である。
【0026】
【発明の実施の形態】
図1は、本発明による漫画編集支援システム10の全体構成を示す概念図である。この漫画編集支援システム10は、ユーザによる漫画の編集を支援する機能を有し、漫画編集支援装置100、ディジタル信号生成部14およびモニタ16を備える。本実施形態においては、ディジタル信号生成部14が、漫画家などにより描かれたオフラインの漫画原稿12をディジタル信号に変換する。ディジタル信号生成部14は、漫画原稿12を読み込んでディジタル信号を生成するイメージスキャナであってもよく、また漫画原稿12を撮像してディジタル信号を生成するディジタルカメラであってもよい。
【0027】
ここで、「オフラインの漫画原稿」は、紙媒体にペンなどの筆記具により描かれた原稿を含む。また、例えば、オフラインの漫画原稿は、フレキシブルディスクやCD−Rなどの記録媒体に保存されたディジタル原稿を含んでも良い。オフラインの漫画原稿には、作者により少なくとも一つのコマ枠、およびコマ枠内に対象物が既に描かれている。本実施形態では、オフラインの漫画原稿が、漫画編集支援システム10に入力されているが、別の実施形態では、ユーザが、漫画編集支援システム10を用いて、漫画原稿の作成をし、漫画原稿支援装置100が、作成された漫画原稿の編集を支援してもよい。モニタ16は、漫画原稿に対応するディジタル漫画画像を表示する。また、モニタ16は、ユーザの編集を支援する編集支援表示を表示する。本発明による漫画編集支援システム10によると、ユーザは、モニタ16に表示されたディジタル漫画画像を、漫画編集支援装置100による編集支援機能を用いて容易に編集することが可能となる。
【0028】
図2は、本発明による一つの実施形態である漫画編集支援装置100の機能ブロック図である。本実施形態による漫画編集支援装置100は、編集支援部20、表示制御部60および入力支援部70を備える。表示制御部60は、漫画原稿のディジタル漫画画像についてその表示用データを生成し、これをモニタ16へ送出する。その結果、モニタ16には、漫画原稿に対応するディジタル漫画画像が表示される。入力支援部70は、ディジタル漫画画像の編集入力を支援する。具体的には、入力支援部70は、キーボード、マウスなどの入力支援ツールで構成される。また、表示制御部60は、入力支援部70を介してユーザより入力された編集内容を編集支援部20より受け取り、それをモニタ16へ送出する。
【0029】
編集支援部20は、モニタ16に表示されているディジタル漫画画像において、ユーザが施すべき編集の支援を行う。一つの実施形態によると、編集支援部20は、ディジタル漫画画像において、コマ枠に基づき、対象物またはその周辺の領域にユーザが施すべき編集を支援する。編集機能を実現するために、編集支援部20は、コマ枠検出部30、コマ枠処理部32、吹出し設定部34、テキスト挿入部36、テクスチャ画像設定部38、効果線設定部40、状態設定支援部42、部位特定部44、データベース46および編集支援表示部48を有する。編集支援表示部48は、ユーザの編集入力を支援するべく、モニタ16に、編集支援表示を表示させる。ユーザは、モニタに表示されたディジタル漫画画像および編集支援表示を見ながら、容易に編集作業を行うことが可能となる。以下に、編集支援部20の各構成の動作および機能について、図3から図8を用いて説明する。
【0030】
コマ枠検出部30は、ディジタル漫画画像のコマ枠を検出する機能を有する。基本的に、漫画には、コマ枠が含まれており、コマ枠に基づいて、キャラクターや背景などの対象物が描かれている。この点において、漫画は、絵画などと大きな特徴を有している。本発明による漫画編集支援装置100は、漫画に含まれるコマ枠に注目し、コマ枠を検出することができるコマ枠検出部30を備えている。漫画編集支援装置100は、コマ枠を認識することによって、コマ枠に基づいた編集作業が可能とする。具体的には、コマ枠検出部30が、ディジタル漫画画像の実質的に閉じた線分に基づいて、コマ枠を検出してもよい。
【0031】
図3(a)は、ディジタル漫画画像においてコマ枠を検出する方法の一例を説明するための説明図である。この例において、対象物は、全てコマ枠内に描かれている。コマ枠は、直線の線分により構成されている場合が多く、その場合には、コマ枠検出部30が、閉じた直線の線分に基づいて、コマ枠を検出してもよい。図示される上段のコマ枠内には、建物が、コマ枠と同様に直線の線分で描かれているが、コマ枠検出部30は、例えば以下のような方法でコマ枠を適切に検出することが可能である。
【0032】
まず、ディジタル漫画画像の右上から左に向かって、線分成分を走査し探索する。走査箇所を順に下方に下げていき、線分成分を検出すると、その線分成分の周辺に存在する別個線分成分を探し出す。このように周辺に存在する線分成分を探し出し、結果として、それらの線分成分をつなぎ合わせた線分を検出する。例えば、コマ枠の右辺に相当する線分を検出すると、続いて、右辺の最下部から左方向に伸びている下辺を検出し、それから、左辺、上辺と検出することによって、四辺形の閉じた線分を検出することが可能となる。コマ枠検出部30は、閉じた線分をコマ枠として認識し、その内部については探索しない。このような方法により、コマ枠内の建物は閉じた直線により構成されているが、コマ枠検出部30は、建物をコマ枠として判断することなく、コマ枠を適切に検出することが可能である。それから、コマ枠検出部30は、下段のコマ枠を探索し、検出する。この検出方法は一例であって、コマ枠検出部30は、別の方法によりコマ枠を検出してもよい。
【0033】
図3(b)は、ディジタル漫画画像においてコマ枠を検出する方法の別の例を説明するための説明図である。図3(a)で説明した実施例と異なり、コマ枠検出部30は、入力支援部70を介してユーザから特定の線分が指定された場合に、その線分を含むコマ枠を検出することができる。具体的には、ユーザが、モニタ16に表示されたディジタル漫画画像を見ながら、コマ枠を構成する線分成分を指定し、コマ枠検出部30が、その線分成分を含んだ線分、その線分に繋がっている別の線分と、さらにはその別の線分に繋がっている線分を順に検出していき、実質的に閉じた線分を検出する。図示される例においては、ユーザが、マウス等の入力支援部70を用いて、コマ枠の右辺の一部である線分成分を指定し、コマ枠検出部30は、例えば図3(a)において説明した方法で閉じた線分を検出し、それをコマ枠として認識する。
【0034】
コマ枠検出部30によりコマ枠が検出されると、コマ枠処理部32が、そのコマ枠に様々な処理を施すことが可能である。例えば、コマ枠処理部32は、コマ枠を、モニタ16に表示されているディジタル漫画画像中の対象物とは異なる色でモニタ16に表示させてもよい。ユーザは、ディジタル漫画画像中のコマ枠を対象物と容易に区別できるようになり、結果として編集作業の効率を向上することが可能となる。また、コマ枠処理部32は、コマ枠を太く表示させるなど、ユーザが認識しやすいようにコマ枠を目立たせる処理を施してもよい。
【0035】
また、コマ枠処理部32は、コマ枠およびそのコマ枠内に描かれた対象物を、拡大または縮小する機能を有してもよい。特定のコマ枠をモニタ16内に大きく表示させることにより、ユーザの当該コマ枠内に描かれた対象物の編集を楽にすることが可能となる。
【0036】
吹出し設定部34は、ディジタル漫画画像におけるコマ枠内において入力支援部70を介して指定された位置に、所定の形状を有する、テキストの書込み可能な吹出し領域を設定する機能を有する。吹出し領域には、テキストを書き込めるだけでなく、画像データを貼り付けることも可能であることが好ましい。ユーザに所望の形状の吹出し領域を選択可能とさせるため、データベース46が、複数の吹出し領域を予め格納していることが望ましい。
【0037】
データベース46は、縦書き用の吹出し領域のフォーマットと、横書き用の吹出し領域のフォーマットとを格納していてもよい。世界各国の言語には、縦書きのものもあれば、横書きのものも存在する。例えば、日本語は、縦書きも横書きも両方通用するが、一般に、漫画においては、縦書きが用いられている。一方、欧米諸国の言語は横書きであり、縦書きは通常用いられない。近年、漫画文化は世界中に広まっており、特に日本の漫画は、絵のうまさやストーリー展開の妙などから、世界各国において親しまれている。そのため、縦書きの日本語でセリフなどを構成された漫画が、外国では横書きに直して出版等される場合が多くなってきている。縦書きの吹出し領域は縦長であるため、横書きの言語を挿入するには適していない。しかし、本実施例によると、吹出し領域として、縦書き用および横書き用の双方を用意し、言語に応じて適宜使用することができるため、読者が読みやすい吹出しが描かれた漫画を作成することが可能となる。
【0038】
図4は、吹出し設定部34により、ディジタル漫画画像における吹出し領域の設定方法を説明するための説明図である。以下では、ディジタル漫画画像中の特定のコマ枠における吹出し領域の設定方法について説明する。尚、吹出し領域の種類についてはユーザにより予め選択されているとする。
【0039】
図4(a)は、ユーザが入力支援部70を介して、吹出し領域を設定する位置を指定した状態を示す。この例においては、ユーザが指定した位置を、×印で示している。
【0040】
図4(b)は、ユーザによる指定位置に、選択された吹出し領域を貼り付けた状態の一例を示す。ユーザは、入力支援部70を介して、吹出し領域の貼付け位置を自由に設定することができ、吹出し領域が対象物に重ならないように貼付け位置を調整してもよい。また、吹出し設定部34が、コマ枠中の対象物の位置を認識し、図4(a)において×印で示される貼付け位置との関係により、吹出し領域が対象物に重ならないように貼付け位置を自動的に調整してもよい。この例では、ディジタル漫画画像において、吹出し領域の一部がコマ枠からはみ出ている状態が示されている。この場合、この実施例では、吹出し設定部34が、吹出し領域の中に存在するコマ枠の部分を切り取り、吹出し領域の全体を、テキストの書込み可能な領域として設定する。吹出し領域がコマ枠からはみ出さない場合には、吹出し設定部34は、そのままの状態で、吹出し領域の全体をテキスト書込み可能な領域として設定する。
【0041】
図4(c)は、ユーザによる指定位置に、選択された吹出し領域を貼り付けた図4(b)とは異なる状態の一例を示す。図4(c)は、図4(b)と同様に、吹出し領域を指定位置に貼り付けると、吹出し領域の一部が、コマ枠からはみ出てしまう状態にあることを前提とする。この場合、この実施例では、コマ枠からはみ出た吹出し領域の吹出し線を切り取り、コマ枠内に存在する吹出し領域を、テキストの書込み可能な領域として設定する。この実施例においては、吹出し設定部34が、コマ枠検出部30により検出されたコマ枠の位置データを利用して、コマ枠からはみ出た吹出し領域の部分を切り取ってもよい。
【0042】
図4(d)は、ユーザが複数の吹出し領域をコマ枠内に貼り付ける状態の一例を示す。複数の吹出し領域がお互いに重なり合うことなくコマ枠内に配置された場合には、吹出し設定部34は、そのままの状態で、その各々をテキストの書込み可能な領域として設定する。一方、図4(d)に示されるように、複数の吹出し領域の一部が互いに重なって設定された場合には、吹出し設定部34は、重なり部分を画定する吹出し線を消去することができる。すなわち、複数の吹出し領域は、その最外枠のみを残してコマ枠内に表示されることになる。このとき、吹出し設定部34は、複数の吹出し領域の最外枠で構成される吹出し領域の集合体を、テキストの書込み可能な領域として設定することができる。
【0043】
テキスト挿入部36は、このように設定された吹出し領域に、ユーザにより入力支援部70を介して入力されたテキストを挿入させる機能を有する。ユーザは、テキストの入力前に、テキストの表示形式を縦書きとするか又は横書きとするかを選択することができる。このとき、ユーザは、挿入するテキストの言語または表示形式に応じて、予め吹出し領域のフォーマットを縦書き又は横書きに選択しておくのが望ましい。また、テキスト挿入部36は、吹出し領域が縦書き用であるか又は横書き用であるかに基づいて、ユーザに選択機会を与えることなく、自動的にテキストの表示形式を定めてもよい。
【0044】
テキスト挿入部36により吹出し領域にテキストが挿入される場合、吹出し設定部34は、書き込まれるテキストのフォントサイズに応じて、吹出し領域の大きさを変更することが望ましい。例えば、吹出し設定部34は、テキスト挿入部36により書き込まれるテキストが吹出し領域に入りきらない場合に、吹出し領域の大きさを広げることが望ましい。また、吹出し設定部34は、テキスト挿入部36により書き込まれるテキストがとるスペースに比べて吹出し領域が大きすぎる場合に、吹出し領域の大きさを縮小してもよい。また、特に、吹出し領域の大きさを広げる場合に、吹出し設定部34は、コマ枠内の対象物に重ならないように、吹出し領域を広げる機能を有していてもよい。このように、吹出し設定部34が、テキストのフォントサイズに応じて、吹出し領域の大きさを自由に拡縮できることにより、バランスのとれた適切な吹出し領域の設定を行うことが可能となる。
【0045】
また、テキスト挿入部36は、吹出し領域の大きさに応じて、テキストのフォントサイズを適宜定めてもよい。例えば、テキスト挿入部36は、書き込むべきテキストが吹出し領域に入りきらない場合に、テキストのフォントサイズを小さく設定することが望ましい。また、テキスト挿入部36は、書き込むべきテキストがとるスペースに比べて吹出し領域が大きすぎる場合に、テキストのフォントサイズを大きく設定してもよい。このように、テキスト挿入部36が、吹出し領域の大きさに応じて、テキストのフォントサイズを自由に設定できることにより、バランスのとれた適切なテキストの設定を行うことが可能となる。
【0046】
テクスチャ画像設定部38は、コマ枠内においてユーザにより入力支援部70を介して指定された指定領域に、入力支援部70を介して選択されたテクスチャ画像を貼り付ける機能を有する。ここで、「テクスチャ画像」とは、対象物自体またはその周辺の領域に描かれるべき模様画像を意味する。テクスチャ画像には、漫画家が紙媒体に漫画を描くときに使われる、いわゆる「トーン」に相当する画像が含まれる。トーン以外にも、例えば、人物の混乱した心理状態を表現する背景の画像や、一般にベタと呼ばれる墨塗り画像なども、テクスチャ画像に含まれる。複数種類のテクスチャ画像が、データベース46に予め格納される。プロの漫画家が使いやすいように、データベース46は、慣れ親しんでいる市販のトーンに対応付けられたナンバーを格納し、ユーザは、トーンナンバーを選択して、指定した領域に、テクスチャ画像を貼り付けることができるようにしてもよい。また、アマチュアにとっても使いやすくするために、編集支援表示部48が、選択されたトーンナンバーに対応するテクスチャ画像をモニタに表示させ、ユーザが、その表示画像を見ながら、テクスチャ画像を容易に選択できるようにしてもよい。
【0047】
図5は、テクスチャ画像設定部38によりテクスチャ画像を貼り付ける方法の一例を説明するための説明図である。尚、貼り付けるテクスチャ画像は、ユーザにより予め選択されているとする。例えば、図5(a)に示されるように、ユーザが、入力支援部70を用いてテクスチャ画像を貼り付けるための領域を指定する。この例では、テクスチャ画像設定部38が、ユーザにより矢印で指定された場所を含む領域を検出する。具体的には、テクスチャ画像設定部38が、矢印で指定された箇所を実線で取り囲んでいる領域を、ユーザが指定した領域として検出する。この例では、コマ枠に描かれた人物の背景部分に相当する領域が、指定領域として検出される。
【0048】
なお、図5(a)における指定領域の検出方法とは別に、ユーザが、入力支援部70を介して、直接、テクスチャ画像を貼り付ける領域を選択してもよい。このとき、ユーザは、マウスやタッチペン、ポインタなどを用いて、ディジタル漫画画像中の領域を直接指定することができる。例えば、ユーザが、鼻の影となる領域を直接指定して、その領域に所望のテクスチャ画像を貼り付けることも可能である。図5(b)は、指定領域に、選択されたテクスチャ画像を貼り付けた一例を示す。
【0049】
尚、テクスチャ画像設定部38は、複数のテクスチャ画像を、指定領域に重ねて貼り付け可能とする。このとき、重ねられた複数のテクスチャ画像が、重なってモニタ16に表示されるのが好ましい。テクスチャ画像設定部38は、複数のテクスチャ画像を指定領域に貼り付ける場合に、入力支援部70を介して各テクスチャ画像の貼り付け位置を調整可能とさせることが好ましい。複数のテクスチャ画像を重ねるとき、重ねる向き、位置などにより、見え方が大きく異なってくる。ユーザは、テクスチャ画像の貼付け位置、貼付け角度などを調整することにより、テクスチャ画像による好ましい視覚的な効果を得ることが可能となる。
【0050】
また、テクスチャ画像設定部38は、モアレを検出する機能を有してもよい。複数のテクスチャ画像を重ねると、モアレが生じる可能性がある。そのため、テクスチャ画像設定部38は、モアレが生じないように複数のテクスチャ画像を配置して重ねる機能を有してもよい。また、逆に、わざとモアレを生じさせたい場合には、テクスチャ画像設定部38は、モアレが生じるように複数のテクスチャ画像を配置して重ねる機能を有してもよい。
【0051】
効果線設定部40は、コマ枠内において、所定の効果線を設定する機能を有する。例えば、効果線設定部40は、入力支援部70を介して指定された中心点に向かって先細りとなる先細り線を、ディジタル漫画画像中に配置することができる。漫画中には、キャラクターなどの対象物に関する心理的・動的な状態を表現したり、読者の注目を引いたりするために、様々な効果線が用いられる。基本的に、漫画はペンなどにより書かれた多種多様な表情をもつ線で構成されており、そのような線を自由に書き分けることができることは、漫画家にとって非常に大切なことである。効果線設定部40は、ディジタル漫画画像において、ペンなどにより書かれた線に可能な限り近い線を描けることが好ましい。以下に、図6を用いて、効果線の中でも、効果線設定部40が、特に先細り線を設定する方法の一例について説明する。
【0052】
図6(a)は、ディジタル漫画画像に含まれる一つのコマ枠およびその中に描かれた対象物の一例を示す。図6(b)は、ユーザが入力支援部70から、先細り線の方向を定める中心点と、先細り線の境界となる境界線とが指定された状態を示す。ここで、中心点は、×印で示されており、境界は点線で示されている。
【0053】
図6(c)は、中心点に向かって先細りとなる先細り線をディジタル漫画画像中に配置した状態を示す。このように配置された先細り線は、一般に「集中線」と呼ばれ、読者の注目を引くために用いられることがある。効果線設定部40は、境界に、複数の先細り線の細端を位置させる。このとき、効果線設定部40は、ユーザに入力支援部70を介して、複数の先細り線の本数または互いの間隔を調整可能とさせるのが好ましい。また、効果線設定部40は、ユーザに入力支援部70を介して、先細り線を一本ずつ所望の位置に配置させてもよい。この例では、効果線設定部40が、コマ枠に先細り線の太端を位置させた複数の先細り線を配置する。別の例では、ユーザが入力支援部70から、先細り線の太端の境界を指定し、効果線設定部40が、先細り線の太端を、その境界に配置してもよい。
【0054】
また、効果線設定部40は、ユーザにより入力支援部70を介して、対象物または対象物の周辺領域の少なくとも一部の領域と、その一部の領域における方向が指定されると、その一部の領域の範囲内において、指定された方向に沿った効果線を設定することができる。以下に、所定の方向に伸びる効果線を書く方法の一例について説明する。
【0055】
図7(a)は、コマ枠内に対象物として自動車の絵が書かれが状態を示す。図7(b)は、ユーザが、自動車の一部の領域を指定し、そこに描く効果線の方向を指定した状態を示す。この例においては、ユーザが、円で囲まれた自動車の後部を、効果線を描く領域として指定し、効果線の方向を、自動車の前部から後部に向かう方向に指定する。
【0056】
以上の指定を受け、効果線設定部40が、図7(c)に示されるような効果線を自動車から伸ばす。ユーザは、入力支援部70を介して、効果線の種類や太さ、長さ、および本数ないしは密度などを設定できることが望ましい。この例においては、効果線設定部40は、円で囲うことにより指定された領域における自動車の最外線を検出し、検出された最外線から効果線を伸ばしている。別の例においては、ユーザが、入力支援部70を介して、効果線の始点となる線分を境界線として指定し、効果線設定部40が、その境界線から効果線を設定してもよい。このような効果線を設定することによって、静止画である絵にスピード感をもたらし、漫画全体に躍動感や臨場感をもたせることが可能となる。
【0057】
状態設定支援部42は、ディジタル漫画画像において、対象物の主観的または客観的な状態の設定を支援する機能を有する。例えば、状態設定支援部42は、対象物の心理的な状態の表現や、動的な動きの表現などの設定を支援する。漫画には、対象物の状態を表現するために様々な手法が確立されているが、ユーザがそのような手法に精通していなくても、状態設定支援部42は、簡単に感覚的に対象物の状態設定をすることが可能となる。
【0058】
一例をあげると、対象物の主観的な状態としては、対象物が何かを発見した状態、動いている状態、吐息、ため息などを吐いている状態、自慢している状態、頑張っている状態、衝撃が生じた状態など様々なものがあり、同様に、対象物の客観的な状態としては、焦りの状態、混乱した状態、歓喜の状態、怯えた状態、酔っ払った状態、落胆した状態、あきれた状態、疑問の状態、のんきな状態など様々なものがある。そのそれぞれの状態について、漫画独特の表現手法が確立されている。本実施形態による状態設定支援部42によると、ユーザが対象物の所望の状態を示すキーワードを選択すると、それに対応する状態画像がディジタル漫画画像中に表示される。
【0059】
この機能を実現するために、データベース46が、対象物の様々な状態を示す複数のキーワードと、その各々に対応づけられた対象物の主観的または客観的な状態を示す状態画像を格納する。状態設定支援部42は、入力支援部70を介して複数のキーワードから一つのキーワードが選択されると、そのキーワードに対応づけられた状態画像をモニタ16に表示させる。データベース46は、対象物の心理的な状態を示すキーワードと、対象物の動きの状態を示すキーワードとを分けて格納してもよい。
【0060】
状態設定支援部42の機能をユーザにとって扱いやすくするために、部位特定部44が、コマ枠に基づいて、対象物の部位を特定してもよい。例えば、部位特定部44は、コマ枠に表示されている人物の頭部や、腕、脚などの部位を特定できることが好ましい。例えば、部位特定部44は、画像認識機能を有し、パターンマッチングなどの技術を利用して、対象物の部位を特定することが可能である。このとき、データベース46は、状態画像を貼り付ける貼付け位置を、対象物の部位に関連して格納していてもよい。ユーザにより入力支援部70を介して所定の状態画像が選択された場合、部位特定部44により特定される部位に基づき、データベース46に格納されている貼付け位置に、状態画像が貼り付けられてもよい。以下に、図8に関連して、状態設定支援部42による具体的な編集支援例について説明する。
【0061】
図8(a)に示された例においては、状態設定支援部42が、ユーザにより入力支援部70を介して焦りの心理状態に関連するキーワードが選択された場合に、モニタ16に、汗を表現する状態画像を表示させる。前提として、漫画の技法の中で、人物が焦りの心理状態にある場合には、顔に汗を流すという表現手法がよく知られている。本実施例においては、データベース46が、「焦り」に関連するキーワードと、それに対応する状態画像として「汗」の絵を格納している。そのため、この例では、汗を表現する状態画像が、人物の顔の領域に貼り付けられる。部位特定部44が、人物の顔を特定し、状態設定支援部42が、特定された顔の領域に、自動的に「汗」の状態画像を貼り付けてもよい。
【0062】
図8(b)に示された例においては、状態設定支援部42が、ユーザにより入力支援部70を介して、対象物の動きの状態に関連するキーワードが選択され、その動きの方向が指定された場合に、対象物またはその周辺の領域に、対象物のスピード感を表現する状態画像を表示させる。この例では、特に、ユーザが、対象物のスピードないしは軌跡に関連するキーワードを選択したとき、状態設定支援部42が、図示されるようなスピード線を自動車およびその周辺の領域に貼り付けてもよい。このとき、状態設定支援部42は、自動車の外形を認識し、状態画像の大きさをその外形に合わせて、自動的に調整して貼り付けることが好ましい。
【0063】
図8(c)においては、状態設定支援部42が、ユーザにより入力支援部70を介して、擬態音に関連するキーワードが選択された場合に、その擬態音がディジタル漫画画像上で読みやすいように、擬態音を表現する状態画像をディジタル漫画画像中に表示させる。ここで、日本語で作成される漫画において、日本語は、通常、上から下に、左から右に読まれるため、状態設定支援部42は、文字の読みやすさを考慮して、擬態音を表現する状態画像を配置するのが好ましい。この擬態音は、斜め方向に配置されてもよい。この例では、データベース46が、「パチ」と描かれた状態画像を格納し、ユーザにより拍手に関連するキーワードが選択されると、状態設定支援部42が、この状態画像の大きさを適切に設定して、読者が読みやすい配置で表示させる。状態設定支援部42は、擬態音を表現する状態画像の表示個数をユーザが選択できるようにしてもよい。また、状態設定支援部42は、複数の擬態音を、ランダムにコマ枠内に配置させる機能を有してもよい。
【0064】
図9は、本実施形態における漫画編集支援装置100のハードウェアブロック図である。ハードウェア構成として、漫画編集支援装置100は、入力支援部70、画像情報入力部72、画像情報出力部74、CD−ROMドライブ76、ハードディスクドライブ78、CPU80およびメモリ82を備える。画像情報入力部72は、ディジタル信号生成部14において生成されたディジタル信号を受け取り、画像情報出力部74は、ディジタル漫画画像の表示用データおよびユーザによる編集内容をモニタ16へ出力する。入力支援部70は、キーボード、マウス、タッチペン、ポインタなどを含む。
【0065】
記録媒体であるCD−ROM90に格納された漫画編集支援プログラムは、図2から図8に関連して説明した編集支援部20および表示制御部60が行う動作を、コンピュータであるCPU80に実行させる各プログラムモジュールを有する。CD−ROM90に記録されたプログラムは、直接CPU80に実行される形態であっても、デコードすることによりCPU80が実行することのできる形態であってもよい。CD−ROMドライブ76は、CD−ROM90からプログラムを読み出し、読み出されたプログラムが、ハードディスクドライブ78に格納される。ハードディスクドライブ78に格納されたプログラムは、メモリ82に読み出されて実行される。
【0066】
具体的には、CD−ROM90が、CPU80によって、少なくとも一つのコマ枠、およびコマ枠内に対象物が描かれた漫画原稿の編集を支援する漫画編集支援プログラムを記録している。このプログラムは、CPU80に漫画原稿のディジタル漫画画像の表示用データを取り込ませ、モニタ16へ送出させるための機能を有する。漫画原稿が紙などのオフライン媒体で構成されている場合には、CPU80が、画像情報入力部72を介して、スキャナなどのディジタル信号生成部14から画像ディジタル信号を取り込ませ、必要であれば所定の処理を施して表示用データを生成させ、画像情報出力部74からモニタ16に送出させる。一方、漫画原稿が漫画編集支援装置100内で作成される場合には、CPU80が、ディジタル漫画画像の表示用データを、画像情報出力部74を介してモニタ16へ送出させる。
【0067】
また、漫画編集支援プログラムは、CPU80に、ディジタル漫画画像に編集を施すための編集支援表示をモニタ16に表示させる。ユーザは、モニタ16に表示された編集支援表示を見ながら、これまでに説明してきた様々な編集処理を、入力支援部70を介して行うことができる。編集支援表示は、ユーザが簡単に扱うことができるように作成されることが好ましい。
【0068】
さらに、漫画編集支援プログラムは、CPU80に、ディジタル漫画画像のコマ枠を検出させたり、ディジタル漫画画像において、対象物の主観的または客観的な状態の設定を支援させるなど、図1から8に関連して説明した様々な編集支援処理を行わせる機能を有している。
【0069】
この実施例において、漫画編集支援プログラムが、CD−ROM90に記録されているが、他の記録媒体、例えば、MO、フローピーディスク、メモリーカード、DVD、磁気テープなどを含んでもよい。
【0070】
【発明の効果】
本発明によれば、ユーザが比較的容易に漫画を編集することができる。
【図面の簡単な説明】
【図1】本発明による漫画編集支援システムの全体構成を示す概念図である。
【図2】本発明による一つの実施形態である漫画編集支援装置の機能ブロック図である。
【図3】ディジタル漫画画像においてコマ枠を検出する方法を説明するための説明図である。
【図4】吹出し設定部により、ディジタル漫画画像における吹出し領域の設定方法を説明するための説明図である。
【図5】テクスチャ画像設定部によりテクスチャ画像を貼り付ける方法の一例を説明するための説明図である。
【図6】効果線設定部により先細り線を設定する方法について説明するための説明図である。
【図7】効果線設定部により所定の方向に伸びる効果線を書く方法について説明するための説明図である。
【図8】状態設定支援部による具体的な編集支援例について説明するための説明図である。
【図9】本実施形態における漫画編集支援装置のハードウェアブロック図である。
【符号の説明】
10・・・漫画編集支援システム、12・・・漫画原稿、14・・・ディジタル信号生成部、16・・・モニタ、20・・・編集支援部、30・・・コマ枠検出部、32・・・コマ枠処理部、34・・・吹出し設定部、36・・・テキスト挿入部、38・・・テクスチャ画像設定部、40・・・効果線設定部、42・・・状態設定支援部、44・・・部位特定部、46・・・データベース、48・・・編集支援表示部、60・・・表示制御部、70・・・入力支援部、72・・・画像情報入力部、74・・・画像情報出力部、78・・・ハードディスクドライブ、80・・・CPU、82・・・メモリ、100・・・漫画編集支援装置。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a manga editing support device, a manga editing support system, and a recording medium on which a manga editing support program is recorded, which supports editing of a manga manuscript, and in particular, can support various editing processes necessary for completing a manga. The present invention relates to a manga editing support device, a manga editing support system, and a recording medium storing a manga editing support program.
[0002]
[Prior art]
There are various manga genres, such as one-frame cartoons such as caricatures, four-frame cartoons published in newspapers, and story comics, gag comics or girl comics published in weekly or monthly magazines, etc. There is. Among them, particularly in the comics with dramatic touches, there are cases where a technique is used to reproduce actual scenery, objects, etc. by drawing pictures from photographs in order to pursue reality. By drawing with a pen or brush a picture that is very close to the real scene, a taste different from that of a picture is created.
[0003]
In addition, since a manga picture is a still image, a dynamism or a sense of realism cannot be created by simply writing an object such as a person or a car on paper. Therefore, various expression methods have been devised in order to give a sense of liveliness and realism to a still image. For example, in a baseball manga that captures the moment the ball hits the bat, the ball is drawn as if it were depressed by the pressure of the bat. , Speed lines are drawn in the direction of running. Further, in order to express the state of the characters, sweat is drawn on the forehead when the person is in a state of impatience, or when a person collides with the head, a bansou is drawn on the head. These are distinctive expression methods that are clearly different from paintings, and are often used in many comics. In addition, readers can understand from the experience so far what the manga author wants to convey using the expression method.
[0004]
Generally, comics are created in the following procedure. First, the characters are set, and the outline is determined. Based on the outline, a script is created, and then an original picture of a manga called a name is created. The name is made by dividing the frame on the paper and writing the characters, etc. in a state that is almost like a scribble. The draft is then drafted on the manuscript. Subsequently, processing such as pen insertion, solid filling, and rubber application is performed, and then, tone application is performed. These tasks are performed manually by the cartoonist or his assistant. Then, the manuscript is brought to the editorial department of a magazine company or the like, where the handwritten text in the balloon is cut and pasted with word processing characters and replaced, thereby completing the manga manuscript. Thereafter, the comics are printed and distributed.
[0005]
[Problems to be solved by the invention]
As described above, the creation of the conventional manga manuscript is basically performed entirely by hand, and a great deal of labor and time are spent. Even professional manga artists and assistants have their own strengths and weaknesses in what they draw and what they do, so it is not efficient to perform all processes uniformly by hand.
[0006]
Therefore, the present invention provides an apparatus and a system for supporting the editing or creation of comics in order to reduce the burden on those who are involved in creating comics such as the cartoonist or assistant, and also the editorial department of a magazine company. .
[0007]
In addition, comics are copyrighted works, and copyright is generated at each stage of the creation of a comic manuscript. Therefore, objects such as characters and backgrounds cannot be rewritten without permission of the author. For this reason, the present invention provides an apparatus and a system that can easily support the editing of a manga manuscript once created by a manga artist or the like within a range that does not conflict with copyright.
[0008]
Furthermore, comics have been used in various fields in recent years, and it is desired to develop devices and systems capable of supporting creation or editing of comics not only by professional cartoonists but also by amateurs. . The present invention also provides a solution in this regard.
[0009]
[Means for Solving the Problems]
In order to solve the above problem, a first aspect of the present invention generates display data for at least one frame frame and a digital comic image of an offline comic manuscript in which an object is drawn in the frame frame. A display control unit for sending the digital cartoon image to a monitor, an editing support unit for assisting editing to be performed on an object or an area around the object based on a frame in a digital cartoon image, and assisting editing input of the digital cartoon image. A comic editing support device comprising an input support unit is provided. The comic book editing support device according to this aspect can support a user to efficiently edit an offline comic manuscript.
[0010]
It is preferable that the editing support unit includes a frame detection unit that detects a frame of the digital comic image. The frame detection unit may detect the frame based on a substantially closed line segment of the digital comic image. When a specific line segment is specified via the input support unit, the frame frame detection unit may detect a frame frame including the line segment.
[0011]
It is preferable that the editing support unit includes a balloon setting unit that sets a text-writable balloon region having a predetermined shape at a position specified via the input support unit in the frame of the digital comic image. It is preferable that the editing support unit has a database for storing the format of the balloon region for vertical writing and the format of the balloon region for horizontal writing.
[0012]
The balloon setting unit cuts out a balloon line of the balloon area that protrudes from the frame when the part of the balloon area protrudes from the frame in the digital comic image, and allows the balloon area existing in the frame to be written with text. It may be set as an area. In addition, the balloon setting unit may delete the balloon lines that define the overlapping portion when a part of the plurality of balloon regions is set to overlap each other.
[0013]
It is preferable that the editing support unit has a text insertion unit that inserts text input via the input support unit into the balloon area. The balloon setting unit may change the size of the balloon region according to the font size of the text inserted by the text insertion unit. The text insertion unit may determine the font size of the text according to the size of the balloon area.
[0014]
It is preferable that the editing support unit includes a texture image setting unit that pastes the texture image selected via the input support unit to a designated area specified via the input support unit in the frame. It is preferable that the texture image setting unit allows a plurality of texture images to be pasted on the designated area. In addition, when pasting a plurality of texture images to the specified area, the texture image setting unit may be configured to be able to adjust the pasting position of each texture image via the input support unit. Further, the texture image setting unit may overlap a plurality of texture images so that moire does not occur.
[0015]
It is preferable that the editing support unit includes an effect line setting unit that sets a predetermined effect line in the frame. The effect line setting unit may arrange a tapered line tapering toward the center point specified via the input support unit in the digital comic image. The effect line setting unit may arrange a plurality of tapered lines in which the narrow end of the tapered line is located at the boundary specified via the input support unit. The effect line setting unit may arrange a plurality of tapered lines with the thick ends of the tapered lines positioned in the frame of the frame. Through the input support unit, at least a partial region of the target object or the peripheral region of the target object, when the direction in the partial region is specified, the effect line setting unit, within the range of the partial region, An effect line along the direction may be set.
[0016]
According to a second aspect of the present invention, there is provided a display for generating display data of at least one frame frame and a digital comic image of a comic manuscript in which an object is drawn in the frame frame, and transmitting the data to a monitor. A control unit, an editing support unit that supports editing to be performed on the target object or an area around the object based on a frame in the digital cartoon image, and an input supporting unit that supports editing input of the digital cartoon image. The support unit provides a comic editing support device having a state setting support unit that supports setting of a subjective or objective state of a target object in a digital comic image. The comic editing support device according to this aspect supports editing of a comic manuscript by a user, and particularly assists editing that expresses a state of a drawn object. This comic editing support device may include some or all of the features of the comic editing support device in the first embodiment.
[0017]
The editing support unit has a database that stores a plurality of keywords and a state image indicating the subjective or objective state of the object associated with each of the keywords, and the state setting support unit receives the input image via the input support unit. When one keyword is selected from a plurality of keywords, a state image associated with the keyword may be displayed on a monitor. The database may store keywords indicating the psychological state of the object and keywords indicating the state of movement of the object. The editing support unit has a part specifying unit that specifies the part of the object based on the frame, and the database stores the pasting position where the state image is pasted in relation to the part of the object. When the status image is selected via the support unit, the status image may be pasted at the pasting position stored in the database based on the site specified by the site specifying unit.
[0018]
The state setting support unit may cause the monitor to display a state image expressing sweat when a keyword related to the mental state of impatience is selected via the input support unit. Further, the state setting support unit, when a keyword related to the state of the movement of the target object is selected via the input support unit and the direction of the movement is designated, the target or the area around the target object A state image expressing the sense of speed of an object may be displayed. Also, the state setting support unit, when a keyword related to the mimic sound is selected via the input support unit, changes the state image expressing the mimic sound so that the mimic sound is easy to read on the digital comic image. It may be displayed in a digital comic image.
[0019]
According to a third embodiment of the present invention, a display control unit generates display data for at least one frame frame and a digital comic image of a comic manuscript in which an object is drawn in the frame frame, and sends the data to a monitor. A digital comic image, comprising: an editing support unit that supports editing to be performed on an object or a peripheral area thereof; and an input supporting unit that supports editing input of the digital comic image. , A comic editing support device comprising a state setting support unit for supporting setting of a subjective or objective state of an object.
[0020]
According to a fourth aspect of the present invention, there is provided a digital signal generator for converting at least one frame frame, and an offline comic manuscript in which an object is drawn in the frame frame into a digital signal; A display control unit for generating display data for the digital comic image, a monitor for displaying the digital comic image, and editing for assisting editing to be performed on the target object or its surrounding area based on the frame in the digital comic image. A comic editing support system comprising: a support unit; and an input supporting unit that supports editing input of a digital comic image. The digital signal generation unit may include an image scanner that reads a comic original and generates a digital signal, or a digital camera that captures an image of the comic original and generates a digital signal.
[0021]
According to a fifth aspect of the present invention, there is provided a display control unit for generating display data for at least one frame frame and a digital comic image of a comic document in which an object is drawn in the frame frame, and displaying the digital comic image. A monitor to be edited, an editing support unit that supports editing to be performed on the target object or an area around the object based on the frame in the digital cartoon image, and an input supporting unit that supports editing input of the digital cartoon image. The support unit provides a comic editing support system having a state setting support unit that supports setting of a subjective or objective state of a target object in a digital comic image.
[0022]
In the manga editing support systems according to the fourth and fifth aspects of the present invention, it is preferable that the editing support unit includes a frame detection unit that detects a frame of the digital manga image. The editing support unit may have a balloon setting unit that sets a text-writable balloon region having a predetermined shape at a position specified via the input support unit in the frame of the digital comic image. preferable.
[0023]
According to a sixth aspect of the present invention, there is provided a recording medium storing a comic editing support program for supporting editing of at least one frame frame and an offline comic manuscript in which an object is drawn in the frame by a computer. The manga editing support program causes the computer to capture display data of a digital manga image of a manga manuscript and send the data to a monitor, and display an editing support display for editing a digital manga image on the monitor. And a function for detecting a frame of a digital comic image, and a recording medium storing a comic editing support program.
[0024]
According to a seventh aspect of the present invention, there is provided a recording medium storing a comic editing support program for supporting editing of a comic manuscript in which at least one frame and an object is drawn in the frame by a computer, The editing support program has a function of causing a computer to transmit display data of a digital comic image of a comic manuscript to a monitor, and a function of displaying on a monitor an editing support display for editing a digital comic image. And a function for supporting the setting of the subjective or objective state of the object in the digital comic image.
[0025]
It is to be noted that any combination of the above-described embodiments or elements thereof is also effective as the present invention. In addition, a device in which the form or element described as an apparatus is replaced with a method step is also effective as the present invention.
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a conceptual diagram showing the overall configuration of a comic editing support system 10 according to the present invention. The manga editing support system 10 has a function of supporting manga editing by a user, and includes a manga editing support device 100, a digital signal generation unit 14, and a monitor 16. In the present embodiment, the digital signal generator 14 converts the offline comic manuscript 12 drawn by a cartoonist or the like into a digital signal. The digital signal generation unit 14 may be an image scanner that reads the comic manuscript 12 and generates a digital signal, or may be a digital camera that captures the comic manuscript 12 and generates a digital signal.
[0027]
Here, the “offline comic manuscript” includes a manuscript drawn on a paper medium with a writing implement such as a pen. Further, for example, the offline comic manuscript may include a digital manuscript stored in a recording medium such as a flexible disk or a CD-R. In the offline comic manuscript, the author has already drawn at least one frame frame and an object in the frame frame. In this embodiment, an off-line manga manuscript is input to the manga editing support system 10, but in another embodiment, a user creates a manga manuscript using the manga The support device 100 may support editing of the created comic manuscript. The monitor 16 displays a digital comic image corresponding to the comic original. In addition, the monitor 16 displays an editing support display that supports the user's editing. According to the comic editing support system 10 of the present invention, the user can easily edit the digital comic image displayed on the monitor 16 by using the editing support function of the comic editing support device 100.
[0028]
FIG. 2 is a functional block diagram of a manga editing support device 100 according to one embodiment of the present invention. The comic editing support device 100 according to the present embodiment includes an editing support unit 20, a display control unit 60, and an input support unit 70. The display controller 60 generates display data for the digital comic image of the comic manuscript and sends it to the monitor 16. As a result, a digital comic image corresponding to the comic original is displayed on the monitor 16. The input support unit 70 supports editing input of a digital comic image. Specifically, the input support unit 70 includes an input support tool such as a keyboard and a mouse. In addition, the display control unit 60 receives the editing content input by the user via the input support unit 70 from the editing support unit 20 and sends it to the monitor 16.
[0029]
The editing support unit 20 supports editing to be performed by the user on the digital cartoon image displayed on the monitor 16. According to one embodiment, the editing support unit 20 supports editing to be performed by the user on the target object or the surrounding area based on the frame in the digital cartoon image. In order to implement the editing function, the editing support unit 20 includes a frame detection unit 30, a frame processing unit 32, a balloon setting unit 34, a text insertion unit 36, a texture image setting unit 38, an effect line setting unit 40, and a state setting. It has a support unit 42, a site specifying unit 44, a database 46, and an editing support display unit 48. The editing support display unit 48 displays an editing support display on the monitor 16 to support the user's editing input. The user can easily perform the editing operation while watching the digital comic image and the editing support display displayed on the monitor. The operation and function of each component of the editing support unit 20 will be described below with reference to FIGS.
[0030]
The frame detection unit 30 has a function of detecting a frame of a digital comic image. Basically, a comic includes a frame, and objects such as characters and backgrounds are drawn based on the frame. In this regard, comics have great features such as paintings. The comic editing support device 100 according to the present invention includes a frame detecting unit 30 that can detect a frame by focusing on a frame included in the comic. By recognizing the frame, the comic editing support device 100 enables the editing operation based on the frame. Specifically, the frame detection unit 30 may detect the frame based on a substantially closed line segment of the digital comic image.
[0031]
FIG. 3A is an explanatory diagram illustrating an example of a method of detecting a frame in a digital comic image. In this example, the objects are all drawn in the frame. In many cases, the frame frame is configured by a straight line segment. In this case, the frame frame detecting unit 30 may detect the frame based on the closed straight line segment. In the upper frame shown in the figure, the building is drawn by a straight line segment like the frame, but the frame frame detector 30 detects the frame appropriately by the following method, for example. It is possible to do.
[0032]
First, line segment components are scanned and searched from the upper right to the left of the digital comic image. When the scanning location is sequentially lowered and a line component is detected, a separate line component existing around the line component is searched for. In this way, line components existing in the periphery are searched for, and as a result, a line segment obtained by connecting these line components is detected. For example, when a line segment corresponding to the right side of the frame is detected, a lower side extending leftward from the bottom of the right side is detected, and then a left side and an upper side are detected. Line segments can be detected. The frame detection unit 30 recognizes the closed line segment as a frame, and does not search the inside of the frame. According to such a method, the building in the frame is configured by a closed straight line, but the frame frame detecting unit 30 can appropriately detect the frame without determining the building as the frame. is there. Then, the frame detection unit 30 searches for and detects the lower frame. This detection method is an example, and the frame detection unit 30 may detect the frame by another method.
[0033]
FIG. 3B is an explanatory diagram for explaining another example of a method of detecting a frame in a digital comic image. Unlike the embodiment described with reference to FIG. 3A, when a specific line segment is specified by the user via the input support unit 70, the frame frame detecting unit 30 detects a frame including the line segment. be able to. Specifically, the user designates a line segment component forming a frame while watching the digital comic image displayed on the monitor 16, and the frame frame detection unit 30 determines a line segment including the line component, Another line segment connected to the line segment and a line segment connected to the other line segment are sequentially detected, and a substantially closed line segment is detected. In the illustrated example, the user uses the input support unit 70 such as a mouse to specify a line segment component that is a part of the right side of the frame, and the frame detection unit 30 determines, for example, FIG. The closed line segment is detected by the method described in (1) and is recognized as a frame.
[0034]
When a frame frame is detected by the frame frame detection unit 30, the frame frame processing unit 32 can perform various processes on the frame. For example, the frame processing unit 32 may cause the monitor 16 to display the frame in a color different from that of the object in the digital comic image displayed on the monitor 16. The user can easily distinguish the frame of the digital comic image from the object, and as a result, the efficiency of the editing operation can be improved. The frame processing unit 32 may perform a process of making the frame more conspicuous so that the user can easily recognize the frame, such as displaying the frame thicker.
[0035]
Further, the frame processing unit 32 may have a function of enlarging or reducing a frame and an object drawn in the frame. By displaying a specific frame frame on the monitor 16 in a large size, it becomes possible for the user to easily edit the object drawn in the frame frame.
[0036]
The balloon setting unit 34 has a function of setting a text-writable balloon region having a predetermined shape at a position designated via the input support unit 70 in a frame of a digital comic image. It is preferable that not only text can be written in the balloon region, but also image data can be pasted. In order to allow the user to select a blowing area having a desired shape, the database 46 preferably stores a plurality of blowing areas in advance.
[0037]
The database 46 may store the format of the balloon area for vertical writing and the format of the balloon area for horizontal writing. Some languages in the world are written vertically and some are written horizontally. For example, in Japanese, both vertical writing and horizontal writing are valid, but in general, vertical writing is used in comics. On the other hand, languages in Western countries are horizontal, and vertical is not usually used. In recent years, manga culture has spread all over the world, and Japanese manga in particular has become popular in many countries around the world due to the quality of paintings and the wonderful story development. For this reason, comics composed of words and the like in vertical Japanese are increasingly published in foreign countries in horizontal writing. Since the vertical writing balloon region is vertically long, it is not suitable for inserting a horizontal writing language. However, according to the present embodiment, both balloons for vertical writing and horizontal writing can be prepared as balloon areas and can be used as appropriate according to the language, so that a manga with drawn balloons that are easy for the reader to read is created. Becomes possible.
[0038]
FIG. 4 is an explanatory diagram for describing a method of setting a balloon area in a digital comic image by the balloon setting unit 34. In the following, a method of setting a balloon region in a specific frame of a digital comic image will be described. It is assumed that the type of the blowing area is selected in advance by the user.
[0039]
FIG. 4A shows a state in which the user has designated a position for setting a balloon area via the input support unit 70. In this example, the position designated by the user is indicated by a cross.
[0040]
FIG. 4B shows an example of a state where the selected balloon region is pasted at a position designated by the user. The user can freely set the pasting position of the balloon region via the input support unit 70, and may adjust the pasting position so that the balloon region does not overlap the target. In addition, the balloon setting unit 34 recognizes the position of the object in the frame of the frame, and determines the position of the balloon so that the balloon region does not overlap with the object, based on the relationship with the position of lamination indicated by the cross mark in FIG. May be automatically adjusted. In this example, in the digital comic image, a state is shown in which a part of the balloon region protrudes from the frame. In this case, in this embodiment, the balloon setting unit 34 cuts out the frame portion existing in the balloon area, and sets the entire balloon area as a text writable area. If the balloon area does not protrude from the frame, the balloon setting unit 34 sets the entire balloon area as a text-writable area without any change.
[0041]
FIG. 4C shows an example of a state different from FIG. 4B in which the selected balloon region is pasted at a position designated by the user. FIG. 4C is based on the assumption that, as in FIG. 4B, when the balloon region is pasted to the designated position, a part of the balloon region protrudes from the frame. In this case, in this embodiment, the blowing line of the blowing area that protrudes from the frame is cut out, and the blowing area existing in the frame is set as a text writable area. In this embodiment, the balloon setting unit 34 may cut out the part of the balloon region that protrudes from the frame by using the position data of the frame detected by the frame detection unit 30.
[0042]
FIG. 4D shows an example of a state in which the user pastes a plurality of balloon regions in a frame. When a plurality of balloon areas are arranged in a frame without overlapping each other, the balloon setting unit 34 sets each of them as a text writable area without any change. On the other hand, as shown in FIG. 4D, when some of the plurality of balloon regions are set so as to overlap each other, the balloon setting unit 34 can delete the balloon lines that define the overlapping portion. . In other words, the plurality of balloon regions are displayed in the frame, leaving only the outermost frame. At this time, the balloon setting unit 34 can set an aggregate of balloon regions formed by the outermost frame of the plurality of balloon regions as a region in which text can be written.
[0043]
The text insertion unit 36 has a function of inserting a text input by the user via the input support unit 70 into the balloon area set as described above. Before inputting the text, the user can select whether to display the text vertically or horizontally. At this time, it is desirable that the user previously select the format of the balloon area as vertical writing or horizontal writing according to the language or display format of the text to be inserted. Further, the text insertion unit 36 may automatically determine the display format of the text based on whether the balloon region is for vertical writing or horizontal writing without giving the user a chance to select.
[0044]
When text is inserted into the balloon area by the text insertion unit 36, it is desirable that the balloon setting unit 34 change the size of the balloon area according to the font size of the text to be written. For example, it is desirable that the balloon setting unit 34 increase the size of the balloon region when the text written by the text insertion unit 36 does not fit in the balloon region. Further, the balloon setting unit 34 may reduce the size of the balloon region when the balloon region is too large compared to the space taken by the text written by the text insertion unit 36. In particular, when expanding the size of the balloon region, the balloon setting unit 34 may have a function of expanding the balloon region so as not to overlap the target in the frame. As described above, since the balloon setting unit 34 can freely enlarge and reduce the size of the balloon region according to the font size of the text, it is possible to set a balanced and appropriate balloon region.
[0045]
Further, the text insertion unit 36 may appropriately determine the font size of the text according to the size of the balloon region. For example, when the text to be written does not fit in the balloon area, the text insertion unit 36 desirably sets the font size of the text to be small. Further, the text insertion unit 36 may set the font size of the text to be large when the balloon area is too large compared to the space taken by the text to be written. As described above, the text insertion unit 36 can freely set the font size of the text according to the size of the balloon region, so that it is possible to set a balanced and appropriate text.
[0046]
The texture image setting unit 38 has a function of pasting the texture image selected via the input support unit 70 to a specified area specified by the user via the input support unit 70 in the frame. Here, the “texture image” means a pattern image to be drawn on the target object itself or an area around the target object. The texture image includes an image corresponding to a so-called “tone” used when a manga artist draws a manga on a paper medium. In addition to the tone, the texture image includes, for example, a background image expressing a confused mental state of a person, a blackened image generally called solid, and the like. A plurality of types of texture images are stored in the database 46 in advance. For ease of use by professional cartoonists, the database 46 stores numbers associated with commercially available tones that the user is familiar with, and the user selects a tone number and pastes a texture image in a designated area. You may be able to do it. In addition, in order to make it easy for amateurs to use, the editing support display unit 48 displays a texture image corresponding to the selected tone number on a monitor, and the user can easily select a texture image while viewing the displayed image. You may be able to.
[0047]
FIG. 5 is an explanatory diagram illustrating an example of a method of pasting a texture image by the texture image setting unit 38. It is assumed that the texture image to be pasted is selected in advance by the user. For example, as shown in FIG. 5A, the user uses the input support unit 70 to specify an area for pasting a texture image. In this example, the texture image setting unit 38 detects an area including a location designated by an arrow by the user. Specifically, the texture image setting unit 38 detects, as a region specified by the user, a region surrounding the portion specified by the arrow with a solid line. In this example, an area corresponding to the background portion of the person drawn in the frame is detected as the designated area.
[0048]
Note that, apart from the method of detecting the designated area in FIG. 5A, the user may directly select the area on which the texture image is to be pasted via the input support unit 70. At this time, the user can directly specify an area in the digital comic image using a mouse, a touch pen, a pointer, or the like. For example, the user can directly specify a region to be a shadow of the nose and paste a desired texture image on the region. FIG. 5B shows an example in which the selected texture image is pasted on the designated area.
[0049]
Note that the texture image setting unit 38 enables a plurality of texture images to be pasted on the designated area. At this time, it is preferable that a plurality of superimposed texture images are displayed on the monitor 16 in an overlapping manner. When pasting a plurality of texture images to the designated area, the texture image setting unit 38 preferably makes it possible to adjust the pasting position of each texture image via the input support unit 70. When a plurality of texture images are superimposed, the appearance greatly differs depending on the superimposition direction, position, and the like. The user can obtain a preferable visual effect by the texture image by adjusting the pasting position, the pasting angle, and the like of the texture image.
[0050]
Further, the texture image setting unit 38 may have a function of detecting moiré. When a plurality of texture images are superimposed, moire may occur. Therefore, the texture image setting unit 38 may have a function of arranging and overlapping a plurality of texture images so that moire does not occur. Conversely, when moiré is intentionally generated, the texture image setting unit 38 may have a function of arranging and overlapping a plurality of texture images so that moiré occurs.
[0051]
The effect line setting unit 40 has a function of setting a predetermined effect line within the frame. For example, the effect line setting unit 40 can arrange a tapered line tapering toward the center point specified via the input support unit 70 in the digital comic image. In a manga, various effect lines are used to express a psychological / dynamic state of an object such as a character or to draw the reader's attention. Basically, cartoons are composed of lines with various expressions written with a pen or the like, and it is very important for a cartoonist to be able to freely write such lines. It is preferable that the effect line setting unit 40 can draw a line as close as possible to a line drawn with a pen or the like in the digital comic image. Hereinafter, an example of a method in which the effect line setting unit 40 sets a tapered line among the effect lines will be described with reference to FIG.
[0052]
FIG. 6A shows an example of one frame included in the digital comic image and an object drawn therein. FIG. 6B shows a state in which the user has designated, from the input support unit 70, a center point that determines the direction of the tapered line and a boundary line that is a boundary of the tapered line. Here, the center point is indicated by a mark x, and the boundary is indicated by a dotted line.
[0053]
FIG. 6C shows a state in which a tapered line tapering toward the center point is arranged in the digital comic image. Tapered lines so arranged are commonly referred to as "concentration lines" and may be used to draw the reader's attention. The effect line setting unit 40 positions the narrow ends of the plurality of tapered lines at the boundary. At this time, it is preferable that the effect line setting unit 40 allows the user to adjust the number of tapered lines or the interval between the tapered lines via the input support unit 70. Further, the effect line setting unit 40 may allow the user to arrange the tapered lines one by one at desired positions via the input support unit 70. In this example, the effect line setting unit 40 arranges a plurality of tapered lines with the thick ends of the tapered lines positioned in the frame of the frame. In another example, the user may specify the boundary of the thick end of the tapered line from the input support unit 70, and the effect line setting unit 40 may arrange the thick end of the tapered line at the boundary.
[0054]
When the user designates at least a part of the target object or the surrounding area of the target object and the direction of the part of the target object via the input support unit 70, the effect line setting unit 40 performs one of the operations. An effect line along a designated direction can be set within the area of the section. Hereinafter, an example of a method of writing an effect line extending in a predetermined direction will be described.
[0055]
FIG. 7A shows a state in which a picture of a car is written as an object in a frame. FIG. 7B shows a state in which the user has specified a partial area of the car and has specified the direction of the effect line drawn there. In this example, the user specifies the rear part of the car surrounded by a circle as an area for drawing an effect line, and specifies the direction of the effect line in a direction from the front part to the rear part of the car.
[0056]
In response to the above designation, the effect line setting unit 40 extends the effect line as shown in FIG. It is desirable that the user can set the type, thickness, length, number or density of the effect lines via the input support unit 70. In this example, the effect line setting unit 40 detects the outermost line of the vehicle in the area designated by enclosing the circle, and extends the effect line from the detected outermost line. In another example, even if the user specifies a line segment that is a start point of an effect line as a boundary line via the input support unit 70, and the effect line setting unit 40 sets an effect line from the boundary line, Good. By setting such an effect line, it is possible to give a sense of speed to a picture as a still image, and to give the manga a sense of dynamism and presence.
[0057]
The state setting support unit 42 has a function of supporting the setting of the subjective or objective state of the object in the digital comic image. For example, the state setting support unit 42 supports setting of the expression of the psychological state of the target object, the expression of a dynamic movement, and the like. Various methods have been established for expressing the state of an object in a comic, but even if the user is not familiar with such a method, the state setting support unit 42 can easily and intuitively sense the object. It is possible to set the state of an object.
[0058]
To give an example, the subjective state of the object may be a state in which the object has found something, a state in which it is moving, a state in which it exhales, sighs, etc., a state in which it boasts, or a state in which it is doing its best There are various things such as a state where an impact has occurred, and similarly, the objective state of the object includes a state of impatience, a state of confusion, a state of rejoicing, a state of being frightened, a state of being drunk, a state of being discouraged, There are various states such as open state, doubtful state, carefree state. A manga-specific expression technique has been established for each state. According to the state setting support unit 42 according to the present embodiment, when the user selects a keyword indicating a desired state of the target object, a corresponding state image is displayed in the digital comic image.
[0059]
To realize this function, the database 46 stores a plurality of keywords indicating various states of the object and state images indicating the subjective or objective state of the object associated with each of the keywords. When one keyword is selected from a plurality of keywords via the input support unit 70, the state setting support unit 42 causes the monitor 16 to display a state image associated with the keyword. The database 46 may store the keyword indicating the psychological state of the target object and the keyword indicating the state of movement of the target object separately.
[0060]
In order to make the function of the state setting support unit 42 easier for the user to handle, the part specifying unit 44 may specify the part of the target based on the frame. For example, it is preferable that the part specifying unit 44 can specify parts such as the head, arms, and legs of the person displayed in the frame. For example, the part specifying unit 44 has an image recognition function, and can specify a part of the target using a technique such as pattern matching. At this time, the database 46 may store the pasting position where the state image is pasted, in relation to the part of the target object. When a predetermined state image is selected by the user via the input support unit 70, even if the state image is pasted at the pasting position stored in the database 46 based on the part specified by the part specifying unit 44. Good. Hereinafter, a specific example of editing support by the state setting support unit 42 will be described with reference to FIG.
[0061]
In the example shown in FIG. 8A, when the user selects a keyword related to the mental state of impatience through the input support unit 70, the state setting support unit 42 A state image to be displayed is displayed. As a prerequisite, a well-known expression technique in a manga technique is to sweat a face when a person is in a state of impatience. In the present embodiment, the database 46 stores a keyword related to “hurry” and a picture of “sweat” as a state image corresponding to the keyword. Therefore, in this example, the state image expressing the sweat is pasted on the area of the face of the person. The part specifying unit 44 may specify the face of the person, and the state setting support unit 42 may automatically attach the state image of “sweat” to the specified face area.
[0062]
In the example shown in FIG. 8B, the state setting support unit 42 selects a keyword related to the state of movement of the target object by the user via the input support unit 70, and specifies the direction of the movement. In this case, a state image expressing the sense of speed of the object is displayed on the object or an area around the object. In this example, in particular, when the user selects a keyword related to the speed or trajectory of the object, the state setting support unit 42 may paste a speed line as illustrated in the vehicle and its surrounding area. Good. At this time, it is preferable that the state setting support unit 42 recognizes the outer shape of the vehicle, automatically adjusts the size of the state image according to the outer shape, and pastes the state image.
[0063]
In FIG. 8C, when the user selects a keyword related to a mimic sound via the input support unit 70 by the user, the state setting support unit 42 makes the mimic sound easier to read on the digital comic image. Then, a state image expressing the mimicry sound is displayed in the digital comic image. Here, in a manga created in Japanese, since Japanese is usually read from top to bottom and from left to right, the state setting support unit 42 considers the legibility of the characters and Is preferably arranged. This mimic sound may be arranged in an oblique direction. In this example, the database 46 stores a state image drawn as “pachi”, and when a user selects a keyword related to applause, the state setting support unit 42 appropriately adjusts the size of this state image. Set it to display in a reader-friendly layout. The state setting support unit 42 may allow the user to select the number of displayed state images representing the mimicry sound. Further, the state setting support unit 42 may have a function of randomly arranging a plurality of mimic sounds in a frame.
[0064]
FIG. 9 is a hardware block diagram of the comic book editing support device 100 according to the present embodiment. As a hardware configuration, the comic editing support device 100 includes an input support unit 70, an image information input unit 72, an image information output unit 74, a CD-ROM drive 76, a hard disk drive 78, a CPU 80, and a memory 82. The image information input unit 72 receives the digital signal generated by the digital signal generation unit 14, and the image information output unit 74 outputs the display data of the digital comic image and the contents edited by the user to the monitor 16. The input support unit 70 includes a keyboard, a mouse, a touch pen, a pointer, and the like.
[0065]
The manga editing support program stored in the CD-ROM 90 serving as a recording medium causes the CPU 80 serving as a computer to execute the operations performed by the editing support unit 20 and the display control unit 60 described with reference to FIGS. It has a program module. The program recorded on the CD-ROM 90 may be a form that is directly executed by the CPU 80 or a form that can be executed by the CPU 80 by decoding. The CD-ROM drive 76 reads a program from the CD-ROM 90, and the read program is stored in the hard disk drive 78. The program stored in the hard disk drive 78 is read out to the memory 82 and executed.
[0066]
Specifically, the CD-ROM 90 records, by the CPU 80, a comic editing support program for supporting editing of at least one frame and a comic manuscript in which a target object is drawn in the frame. This program has a function of causing the CPU 80 to capture display data of a digital comic image of a comic manuscript and to transmit the data to the monitor 16. When the comic original is composed of an off-line medium such as paper, the CPU 80 causes the digital signal generation unit 14 such as a scanner to take in an image digital signal through the image information input unit 72, and Is performed to generate display data, and the display data is transmitted from the image information output unit 74 to the monitor 16. On the other hand, when the manga original is created in the manga editing support device 100, the CPU 80 causes the display data of the digital manga image to be transmitted to the monitor 16 via the image information output unit 74.
[0067]
The manga editing support program causes the CPU 80 to display an editing support display for editing a digital manga image on the monitor 16. The user can perform the various editing processes described above via the input support unit 70 while viewing the editing support display displayed on the monitor 16. The editing support display is preferably created so that the user can easily handle it.
[0068]
Further, the manga editing support program causes the CPU 80 to detect the frame of the digital manga image, and to assist in setting the subjective or objective state of the object in the digital manga image, such as those shown in FIGS. It has a function of performing the various editing support processes described above.
[0069]
In this embodiment, the comic editing support program is recorded on the CD-ROM 90, but may include other recording media such as an MO, a floppy disk, a memory card, a DVD, and a magnetic tape.
[0070]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, a user can edit a comic relatively easily.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing the overall configuration of a comic editing support system according to the present invention.
FIG. 2 is a functional block diagram of a comic book editing support device according to one embodiment of the present invention.
FIG. 3 is an explanatory diagram for explaining a method of detecting a frame in a digital comic image.
FIG. 4 is an explanatory diagram for explaining a method of setting a balloon region in a digital comic image by a balloon setting unit.
FIG. 5 is an explanatory diagram illustrating an example of a method of pasting a texture image by a texture image setting unit.
FIG. 6 is an explanatory diagram for describing a method of setting a tapered line by an effect line setting unit.
FIG. 7 is an explanatory diagram for describing a method of writing an effect line extending in a predetermined direction by an effect line setting unit.
FIG. 8 is an explanatory diagram for describing a specific editing support example by a state setting support unit.
FIG. 9 is a hardware block diagram of the comic book editing support device according to the present embodiment.
[Explanation of symbols]
10 manga editing support system, 12 manga original, 14 digital signal generator, 16 monitor, 20 editing support unit, 30 frame detection unit, 32 ··· Frame processing unit, 34: balloon setting unit, 36: text insertion unit, 38: texture image setting unit, 40: effect line setting unit, 42: state setting support unit, 44: part identification unit, 46: database, 48: editing support display unit, 60: display control unit, 70: input support unit, 72: image information input unit, 74 .. An image information output unit, 78: a hard disk drive, 80: CPU, 82: memory, 100: comic editing support device.

Claims (11)

少なくとも一つのコマ枠、および前記コマ枠内に対象物が描かれたディジタル漫画画像についてその表示用データを生成し、これをモニタへ送出する表示制御部と、
前記ディジタル漫画画像において、コマ枠に基づき、前記対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、
前記ディジタル漫画画像の編集入力を支援する入力支援部とを備え、
前記編集支援部は、前記コマ枠内において、所定の効果線を設定する効果線設定部を有し、
前記効果線設定部は、前記入力支援部を介して指定された中心点に向かって先細りとなる先細り線を前記ディジタル漫画画像中に配置することを特徴とする漫画編集支援装置。
At least one frame frame, and a display control unit that generates display data for a digital comic image in which an object is drawn in the frame frame, and sends the generated data to a monitor.
In the digital cartoon image, based on a frame, an editing support unit that supports editing to be performed on the object or an area around the object,
An input support unit that supports editing input of the digital cartoon image,
The editing support unit has an effect line setting unit that sets a predetermined effect line within the frame.
The comic editing support device, wherein the effect line setting unit arranges a tapered line tapering toward a center point designated via the input supporting unit in the digital comic image.
前記ディジタル漫画画像は、オフラインの漫画原稿から生成されることを特徴とする請求項1に記載の漫画編集支援装置。The comic editing support apparatus according to claim 1, wherein the digital comic image is generated from an offline comic manuscript. 前記効果線設定部は、前記入力支援部を介して指定された境界に前記先細り線の細端を位置させた複数の前記先細り線を配置することを特徴とする請求項1または2に記載の漫画編集支援装置。The said effect-line setting part arrange | positions the said several tapering line which located the narrow end of the said tapering line in the boundary specified via the said input assistance part, The Claim 1 or 2 characterized by the above-mentioned. Cartoon editing support device. 前記効果線設定部は、前記コマ枠に前記先細り線の太端を位置させた複数の前記先細り線を配置することを特徴とする請求項1から3のいずれかに記載の漫画編集支援装置。The comic editing support device according to any one of claims 1 to 3, wherein the effect line setting unit arranges a plurality of the tapered lines in which a thick end of the tapered line is positioned in the frame. 少なくとも一つのコマ枠、および前記コマ枠内に対象物が描かれたディジタル漫画画像についてその表示用データを生成し、これをモニタへ送出する表示制御部と、
前記ディジタル漫画画像において、コマ枠に基づき、前記対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、
前記ディジタル漫画画像の編集入力を支援する入力支援部とを備え、
前記編集支援部は、前記コマ枠内において、所定の効果線を設定する効果線設定部を有し、
前記入力支援部を介して、前記対象物または対象物の周辺領域の少なくとも一部の領域と、前記一部の領域における方向が指定されると、前記効果線設定部は、前記一部の領域の範囲内において、前記方向に沿った効果線を設定することを特徴とする漫画編集支援装置。
At least one frame frame, and a display control unit that generates display data for a digital comic image in which an object is drawn in the frame frame, and sends the generated data to a monitor.
In the digital cartoon image, based on a frame, an editing support unit that supports editing to be performed on the object or an area around the object,
An input support unit that supports editing input of the digital cartoon image,
The editing support unit has an effect line setting unit that sets a predetermined effect line within the frame.
Through the input support unit, when at least a part of the target object or the peripheral region of the target object and a direction in the part of the region are designated, the effect line setting unit sets the partial region A comic line editing support device, wherein an effect line is set along the direction within the range.
少なくとも一つのコマ枠、および前記コマ枠内に対象物が描かれたディジタル漫画画像についてその表示用データを生成し、これをモニタへ送出する表示制御部と、
前記ディジタル漫画画像において、コマ枠に基づき、前記対象物またはその周辺の領域に施すべき編集を支援する編集支援部と、
前記ディジタル漫画画像の編集入力を支援する入力支援部とを備え、
前記編集支援部は、前記ディジタル漫画画像において、前記対象物の主観的または客観的な状態の設定を支援する状態設定支援部と、複数のキーワードと、その各々に対応づけられた前記対象物の主観的または客観的な状態を示す状態画像を格納するデータベースを有し、
前記状態設定支援部は、前記入力支援部を介して複数のキーワードから一つのキーワードが選択されると、そのキーワードに対応づけられた前記状態画像を前記モニタに表示させることを特徴とする漫画編集支援装置。
At least one frame frame, and a display control unit that generates display data for a digital comic image in which an object is drawn in the frame frame, and sends the generated data to a monitor.
In the digital cartoon image, based on a frame, an editing support unit that supports editing to be performed on the object or an area around the object,
An input support unit that supports editing input of the digital cartoon image,
The editing support unit includes a state setting support unit that supports setting of a subjective or objective state of the object in the digital comic image, a plurality of keywords, and a keyword of the object associated with each of the keywords. Has a database that stores state images that indicate subjective or objective states,
The cartoon setting editor, wherein when one keyword is selected from a plurality of keywords via the input supporter, the status image associated with the keyword is displayed on the monitor. Support equipment.
前記データベースは、前記対象物の心理的な状態を示すキーワードと、前記対象物の動きの状態を示すキーワードを格納していることを特徴とする請求項6に記載の漫画編集支援装置。The comic editing support apparatus according to claim 6, wherein the database stores a keyword indicating a psychological state of the object and a keyword indicating a state of movement of the object. 前記編集支援部は、前記コマ枠に基づき、前記対象物の部位を特定する部位特定部を有し、
前記データベースは、前記状態画像を貼り付ける貼付け位置を、前記対象物の部位に関連して格納しており、
前記入力支援部を介して前記状態画像が選択された場合、前記部位特定部により特定される前記部位に基づき、前記データベースに格納された前記貼付け位置に、前記状態画像が貼り付けられることを特徴とする請求項6または7に記載の漫画編集支援装置。
The editing support unit includes a part specifying unit that specifies a part of the object based on the frame.
The database stores a pasting position where the state image is pasted, in relation to a part of the object,
When the status image is selected via the input support unit, the status image is pasted to the pasting position stored in the database based on the site specified by the site specifying unit. The comic editing support device according to claim 6 or 7, wherein:
前記状態設定支援部は、前記入力支援部を介して、焦りの心理状態に関連するキーワードが選択された場合に、前記モニタに、汗を表現する状態画像を表示させることを特徴とする請求項6から8のいずれかに記載の漫画編集支援装置。The state setting support unit, when a keyword related to a mental state of impatience is selected via the input support unit, causes the monitor to display a state image expressing sweat. 9. The comic editing support device according to any one of 6 to 8. 前記状態設定支援部は、前記入力支援部を介して、前記対象物の動きの状態に関連するキーワードが選択され、その動きの方向が指定された場合に、前記対象物またはその周辺の領域に、前記対象物のスピード感を表現する状態画像を表示させることを特徴とする請求項6から8のいずれかに記載の漫画編集支援装置。The state setting support unit, via the input support unit, when a keyword related to the state of movement of the object is selected and the direction of the movement is designated, the state or the area around the object is 9. The comic editing support device according to claim 6, wherein a state image expressing a sense of speed of the object is displayed. 前記状態設定支援部は、前記入力支援部を介して、擬態音に関連するキーワードが選択された場合に、その擬態音が前記ディジタル漫画画像上で読みやすいように、前記擬態音を表現する状態画像を前記ディジタル漫画画像中に表示させることを特徴とする請求項6から8のいずれかに記載の漫画編集支援装置。The state setting support unit is configured to, when a keyword related to a mimic sound is selected via the input support unit, express the mimic sound so that the mimic sound is easy to read on the digital comic image. The comic editing support device according to any one of claims 6 to 8, wherein an image is displayed in the digital comic image.
JP2003206461A 2003-08-07 2003-08-07 Comics editing support device Pending JP2004078923A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003206461A JP2004078923A (en) 2003-08-07 2003-08-07 Comics editing support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003206461A JP2004078923A (en) 2003-08-07 2003-08-07 Comics editing support device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000233773A Division JP3486159B2 (en) 2000-08-01 2000-08-01 Comic editing support device, manga editing support system, and recording medium recording manga editing support program

Publications (1)

Publication Number Publication Date
JP2004078923A true JP2004078923A (en) 2004-03-11

Family

ID=32025719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003206461A Pending JP2004078923A (en) 2003-08-07 2003-08-07 Comics editing support device

Country Status (1)

Country Link
JP (1) JP2004078923A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012063854A (en) * 2010-09-14 2012-03-29 Kadokawa Group Publishing Co Ltd Dialogue check device, dialogue check method, and program
CN103198503A (en) * 2011-10-21 2013-07-10 富士胶片株式会社 Digital comic editor and method
US8819545B2 (en) 2011-10-21 2014-08-26 Fujifilm Corporation Digital comic editor, method and non-transitory computer-readable medium
JP2017204290A (en) * 2015-03-19 2017-11-16 ネイバー コーポレーションNAVER Corporation Cartoon data editing method and cartoon data editing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012063854A (en) * 2010-09-14 2012-03-29 Kadokawa Group Publishing Co Ltd Dialogue check device, dialogue check method, and program
CN103198503A (en) * 2011-10-21 2013-07-10 富士胶片株式会社 Digital comic editor and method
US8819545B2 (en) 2011-10-21 2014-08-26 Fujifilm Corporation Digital comic editor, method and non-transitory computer-readable medium
US8952985B2 (en) 2011-10-21 2015-02-10 Fujifilm Corporation Digital comic editor, method and non-transitory computer-readable medium
JP2017204290A (en) * 2015-03-19 2017-11-16 ネイバー コーポレーションNAVER Corporation Cartoon data editing method and cartoon data editing apparatus

Similar Documents

Publication Publication Date Title
JP5634853B2 (en) Electronic comic viewer device, electronic comic browsing system, viewer program, and electronic comic display method
US8719029B2 (en) File format, server, viewer device for digital comic, digital comic generation device
JP4125140B2 (en) Information processing apparatus, information processing method, and program
JP5674450B2 (en) Electronic comic viewer device, electronic comic browsing system, viewer program, recording medium on which the viewer program is recorded, and electronic comic display method
US20120196260A1 (en) Electronic Comic (E-Comic) Metadata Processing
CN103384896A (en) Digital comic editing device and method thereof
CN105654532A (en) Photo photographing and processing method and system
US20040076342A1 (en) Automatic image placement and linking
JP5674451B2 (en) Viewer device, browsing system, viewer program, and recording medium
WO2012086359A1 (en) Viewer device, viewing system, viewer program, and recording medium
KR102281298B1 (en) System and method for video synthesis based on artificial intelligence
JP3486159B2 (en) Comic editing support device, manga editing support system, and recording medium recording manga editing support program
JP2009301055A (en) Electronic comics manufacturing device and method for manufacturing electronic comics
JP2004078923A (en) Comics editing support device
JP4211338B2 (en) Image layout apparatus, image layout program, and image layout method
KR101843133B1 (en) Apparatus for recording and playing written contents and method for controlling the same
JP3990418B2 (en) Photo vending apparatus, photo vending method, and photo vending program
JP6261198B2 (en) Information processing apparatus, information processing method, and program
CN118158453A (en) Multi-person conversation video generation method, device, electronic device and storage medium
CN114241175A (en) Text translation method, device, scanning pen and storage medium
JP2010108296A (en) Information processor and information processing method
KR101843135B1 (en) Video processing method, apparatus and computer program
KR102265102B1 (en) Editing method for subtitle with kinetic typography and electronic apparatus thereof
JP2005196481A (en) Image forming apparatus, image forming method, and program
JP4967983B2 (en) Information recording apparatus and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060523

A02 Decision of refusal

Effective date: 20060926

Free format text: JAPANESE INTERMEDIATE CODE: A02