[go: up one dir, main page]

DE102021120126A1 - Method for providing design inspiration for a design development of an object - Google Patents

Method for providing design inspiration for a design development of an object Download PDF

Info

Publication number
DE102021120126A1
DE102021120126A1 DE102021120126.8A DE102021120126A DE102021120126A1 DE 102021120126 A1 DE102021120126 A1 DE 102021120126A1 DE 102021120126 A DE102021120126 A DE 102021120126A DE 102021120126 A1 DE102021120126 A1 DE 102021120126A1
Authority
DE
Germany
Prior art keywords
image data
generated
design
data set
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021120126.8A
Other languages
German (de)
Inventor
Daniel Kögl
Daniele Sirigatti
Daniel Kawetzki
Vladislav Rosov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102021120126.8A priority Critical patent/DE102021120126A1/en
Publication of DE102021120126A1 publication Critical patent/DE102021120126A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Bereitstellen einer Designinspiration für eine Designentwicklung eines Objekts (4), umfassend folgende Schritte: Erzeugen (S1) eines Bilddatensatzes (13), der mehrere das Objekt (4) beschreibende Bilddaten (14) aufweist, mittels eines künstlichen neuronalen Netzwerks (11), bevorzugt mittels eines erzeugenden gegnerischen Netzwerks (12). Zudem erfolgt ein Bereitstellen (S2) von zumindest zwei Bilddaten (14a, 14b) des Bilddatensatzes (13) unter Anwenden eines Bilddatenauswahlkriteriums (15) auf den Bilddatensatz (13) sowie ein Erzeugen (S3) von Kombinationsbilddaten (18). Hierfür wird ein Kombinationsbilddatenerzeugungskriterium (17) auf die bereitgestellten zumindest zwei Bilddaten (14a, 14b) angewendet, wobei entweder eine Interpolation zwischen den zumindest zwei bereitgestellten Bilddaten (14a, 14b) und/oder eine Rekombination von Teilbilddaten (19) der zumindest zwei bereitgestellten Bilddaten (14a, 14b) durchgeführt wird. Letztendlich erfolgt ein Bereitstellen (S4) der erzeugten Kombinationsbilddaten (18) als Designinspiration.The invention relates to a method for providing design inspiration for a design development of an object (4), comprising the following steps: generating (S1) an image data set (13) which has a plurality of image data (14) describing the object (4), using an artificial neuronal Network (11), preferably by means of a generating opposing network (12). In addition, at least two image data (14a, 14b) of the image data set (13) are provided (S2) using an image data selection criterion (15) on the image data set (13) and combination image data (18) are generated (S3). For this purpose, a combination image data generation criterion (17) is applied to the at least two image data (14a, 14b) provided, with either an interpolation between the at least two image data (14a, 14b) provided and/or a recombination of partial image data (19) of the at least two image data provided (14a, 14b) is performed. Finally, the generated combination image data (18) is provided (S4) as design inspiration.

Description

Die Erfindung betrifft ein Verfahren zum Bereitstellen einer Designinspiration für eine Designentwicklung eines Objekts.The invention relates to a method for providing design inspiration for a design development of an object.

Während einer Designentwicklung für ein Objekt, wie zum Beispiel eine Felge eines Kraftfahrzeugs, durchläuft ein Designer typischerweise einen andauernden Findungsprozess, in dessen Rahmen er in alltäglichen Situationen nach bereits bekannten Mustern und Formen als Designinspiration sucht, die er daraufhin in seine eigene kreative Arbeit, das heißt die Designentwicklung, einfließen lassen kann. Er kann die Designinspiration beispielsweise Kunst und/oder Architektur, dem Internet, einer Fotografie und/oder einer das Objekt betreffenden Mode entnehmen. Sobald die Designinspiration gefunden wurde, fließt diese in eine eigene Kreativarbeit des Designers und somit in zum Beispiel dessen ersten Entwurf ein, also beispielsweise in eine erste Skizze des Objekts, das im Rahmen der Designentwicklung entwickelt werden soll. Die Designentwicklung kann alternativ als Designprozess bezeichnet werden. Ausgehend von der abstrakten Designinspiration erstellt der Designer also typischerweise eine oder mehrere Skizzen und/oder eine digitale Visualisierung der Designinspiration. Daraufhin kann er sich iterativ einem Enddesign des Objekts annähern.During a design development for an object, such as a wheel rim of a motor vehicle, a designer typically goes through an ongoing process of finding, in the context of which he looks for already known patterns and shapes in everyday situations as design inspiration, which he then incorporates into his own creative work, the is the name of the design development. For example, he can take the design inspiration from art and/or architecture, the Internet, a photograph and/or a fashion relating to the object. As soon as the design inspiration has been found, it flows into the designer's own creative work and thus, for example, into his first draft, for example into a first sketch of the object that is to be developed as part of the design development. Design development can alternatively be referred to as design process. Starting from the abstract design inspiration, the designer typically creates one or more sketches and/or a digital visualization of the design inspiration. He can then iteratively approach a final design of the object.

Aktuell unterliegt die Designentwicklung eines Objekts daher einem relativ großen Maß an Unsicherheit, das heißt an unbekannten Variablen, und wird technisch lediglich von beispielsweise Methoden des rechnerunterstützten Konstruierens, zum Beispiel einer Computer-Aided Design (CAD)-Software, unterstützt. Jede neue Idee muss allerdings zunächst arbeitsintensiv beispielsweise auf Papier oder digital visualisiert werden, wobei die Auswahl von einer Designinspiration aus der großen Fülle an existierenden Designs und somit existierenden Designinspirationen oftmals zeitaufwendig ist.Currently, the design development of an object is therefore subject to a relatively large degree of uncertainty, i.e. unknown variables, and is technically only supported by, for example, methods of computer-aided design, for example computer-aided design (CAD) software. However, every new idea must first be visualized, for example on paper or digitally, in a labor-intensive process, with the selection of a design inspiration from the great abundance of existing designs and thus existing design inspirations often being time-consuming.

Die EP 3 675 063 A1 zeigt ein computerimplementiertes Verfahren, in dessen Rahmen eine mit freier Hand gezeichnete Darstellung eines dreidimensionalen Objekts unter Anwendung eines künstlichen neuronalen Netzwerkes in ein dreidimensionales Modell des gezeichneten Objekts übertragen werden kann.The EP 3 675 063 A1 shows a computer-implemented method by which a free-hand drawn representation of a three-dimensional object can be transformed into a three-dimensional model of the drawn object using an artificial neural network.

Die US 2019/0325628 A1 zeigt ein Verfahren, bei dem ein Stilbild und ein Objektbild unter Anwendung von Methoden der künstlichen Intelligenz miteinander in Verbindung gebracht werden, um ein künstliches Objekt zu erzeugen, das hinsichtlich eines Stils vom Stilbild inspiriert ist.The US 2019/0325628 A1 shows a method in which a style image and an object image are associated with each other using artificial intelligence methods to create an artificial object inspired in style by the style image.

Die CN 112084719 A zeigt eine Methode zum Bereitstellen einer intelligenten Designplattform, die ein rechnerunterstütztes Konstruieren und dabei erzeugte CAD-Daten, mit einer Simulation, gestützt auf rechnergestützter Entwicklung CAE (CAE für Computer-Aided Engineering), kombiniert, wobei Methoden der künstlichen Intelligenz verwendet werden.The CN 112084719A shows a method for providing an intelligent design platform that combines computer-aided design and CAD data generated thereby with simulation based on computer-aided development CAE (CAE for Computer-Aided Engineering), using methods of artificial intelligence.

Es ist die Aufgabe der Erfindung, eine Lösung bereitzustellen, mittels derer schnell und einfach eine Designinspiration für eine Designentwicklung eines Objekts, insbesondere für ein Objekt mit Kraftfahrzeugbezug, bereitgestellt werden kann.It is the object of the invention to provide a solution by means of which design inspiration for a design development of an object, in particular for an object relating to a motor vehicle, can be provided quickly and easily.

Die Aufgabe wird durch die Gegenstände des unabhängigen Patentanspruchs gelöst. Mögliche Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen, der folgenden Beschreibung und den Figuren angegeben.The object is solved by the subject matter of the independent patent claim. Possible configurations of the invention are specified in the dependent claims, the following description and the figures.

Der Erfindung liegt die Erkenntnis zugrunde, dass der Designer aufgrund des heutzutage typischen Designentwicklungsprozesses oft zahlreiche Stunden damit verbringt, bereits bekannte Designs eines Objekts zu suchen und von diesen Skizzen zu generieren. Bereits bekannte Formen, Muster und Designs können auf eine abstrakte Art und Weise in das neue Design einfließen. Dies kann beispielsweise in einem iterativen Prozess erfolgen. Das Erstellen der oft zahlreichen Skizzen benötigt Zeit, ohne dass hierdurch ein hoher Wertschöpfungsgrad erreicht werden kann. Oftmals sind zahlreiche Überarbeitungen, das heißt zahlreiche Iterationen, nötig, um zu einem endgültigen Zieldesign für das Objekt zu gelangen. Hierbei werden zudem verschiedene Softwareanwendungen genutzt, wie beispielsweise rechnergestützte Gestaltung CAS (CAS für Computer-Aided Styling) zur Erzeugung dreidimensionaler Geometriemodelle. Dies ermöglicht beispielsweise das Erstellen realistischer digitaler Skizzen des designten Objekts. Es treten also typischerweise Medienbrüche innerhalb von komplexen Softwaretoolketten auf, um beispielsweise letztendlich beginnend von der beispielsweise mit der Hand skizzierten ersten Designinspiration zu einem präsentationswürdigen Designvorschlag am Ende der Designentwicklung gelangen zu können.The invention is based on the knowledge that, due to the design development process that is typical today, the designer often spends numerous hours searching for already known designs of an object and generating sketches from these. Forms, patterns and designs that are already known can flow into the new design in an abstract way. This can be done, for example, in an iterative process. Creating the often numerous sketches takes time without being able to achieve a high degree of added value. Often numerous revisions, i.e. numerous iterations, are required to arrive at a final target design for the object. Various software applications are also used here, such as computer-aided design CAS (CAS for Computer-Aided Styling) to create three-dimensional geometric models. This enables, for example, the creation of realistic digital sketches of the designed object. Media breaks typically occur within complex software tool chains, for example in order to be able to arrive at a design proposal worthy of presentation at the end of the design development, starting with the first design inspiration sketched by hand, for example.

Aus diesen Gründen ist es sinnvoll, den Designer beim Finden der Designinspiration und somit beim Finden des Ausgangspunkts für die Designentwicklung zu unterstützen. Hierfür eignen sich Methoden der künstlichen Intelligenz, zum Beispiel die Anwendung eines künstlichen neuronalen Netzwerks, sodass letztendlich zumindest teilweise automatisch die Designinspiration für die Designentwicklung des Objekts für den Designer bereitgestellt werden kann.For these reasons, it makes sense to support the designer in finding the design inspiration and thus in finding the starting point for the design development. Methods of artificial intelligence are suitable for this, for example the use of an artificial neural network, so that ultimately the design inspiration for the design development of the object can be provided to the designer at least partially automatically.

Das erfindungsgemäße Verfahren eignet sich zum Bereitstellen einer Designinspiration für eine Designentwicklung eines Objekts. Im Folgenden wird als Objekt exemplarisch eine Felge eines Kraftfahrzeugs betrachtet. Das Verfahren eignet sich jedoch zum Bereitstellen der Designinspiration für verschiedene Komponenten eines Kraftfahrzeugs, wie beispielsweise für einen Fahrzeugsitz, eine Karosserieform und/oder ein Lenkrad des Kraftfahrzeugs. Ferner kann das Verfahren zum Bereitstellen der Designinspiration für ein beliebiges anderes Objekt, das heißt ein Objekt ohne Kraftfahrzeugbezug, angewendet werden.The method according to the invention is suitable for providing a design inspiration for a Design development of an object. In the following, a rim of a motor vehicle is considered as an example of an object. However, the method is suitable for providing the design inspiration for various components of a motor vehicle, such as a vehicle seat, a body shape and/or a steering wheel of the motor vehicle. Furthermore, the method for providing the design inspiration can be applied to any other object, ie a non-automotive object.

In einem Verfahrensschritt wird ein Bilddatensatz erzeugt, der mehrere, das Objekt beschreibende Bilddaten aufweist. Der Bilddatensatz wird mittels zumindest eines künstlichen neuronalen Netzwerks erzeugt, wobei sich die mehreren Bilddaten im erzeugten Bilddatensatz jeweils in zumindest einem Bildmerkmal voneinander unterscheiden. Es werden also zahlreiche voneinander jeweils verschiedene Bilder anhand jeweiliger Bilddaten erzeugt, die alle vom erzeugten Bilddatensatz umfasst werden. Die mehreren Bilddaten können zum Beispiel jeweils eine Felge eines Kraftfahrzeugs zeigen. Die einzelnen Bilddaten des Bilddatensatzes zeigen jedoch jeweils unterschiedliche Felgen, die sich beispielsweise hinsichtlich einer Anzahl an Speichen der Felge, einer Farbgebung und/oder einer Form der Speichen unterscheiden.In a method step, an image data record is generated, which has multiple image data describing the object. The image data record is generated by means of at least one artificial neural network, the plurality of image data in the generated image data record each differing from one another in at least one image feature. Numerous images, each different from one another, are thus generated using respective image data, all of which are included in the generated image data set. The plurality of image data can each show a wheel rim of a motor vehicle, for example. However, the individual image data of the image data set each show different rims, which differ, for example, with regard to a number of spokes of the rim, a color scheme and/or a shape of the spokes.

Das zumindest eine künstliche neuronale Netzwerk ist beispielsweise ein erzeugendes gegnerisches Netzwerk GAN (GAN für Generative Adversarial Network). Als künstliches neuronales Netz, das oftmals als Artificial Neuronal Network bezeichnet wird, wird ein Netz aus künstlichen Neuronen verstanden, das für maschinelles Lernen und künstliche Intelligenz eingesetzt wird. Computerbasiert lassen sich mithilfe eines künstlichen neuronalen Netzwerks diverse Problemstellungen lösen. Letztendlich ist ein künstliches neuronales Netzwerk ein Algorithmus, der dem menschlichen Gehirn nachempfunden ist und anhand dessen sich verschiedene Datenquellen, wie zum Beispiel Bilddaten, interpretieren und Informationen oder Muster aus diesen extrahieren lassen, um die extrahierten Informationen oder Muster auf bisher unbekannte Daten anzuwenden. Letztendlich können dadurch datenbetriebene Vorhersagen erstellt werden, sodass beispielsweise künstliche Daten erzeugt werden, die ausgehend von den dem künstlichen neuronalen Netzwerk zum Trainieren zur Verfügung gestellten Daten erzeugt werden. Der Bilddatensatz besteht daher beispielsweise aus zahlreichen Bilddaten von vom künstlichen neuronalen Netzwerk entworfenen Felgen für ein Kraftfahrzeug, wobei die in diesem Bilddatensatz umfassten Felgenbilddaten basierend auf den im zumindest einen künstlichen neuronalen Netzwerk hinterlegten Informationen und Mustern betreffend Felgen von Kraftfahrzeugen erzeugt wurden. Der Bilddatensatz kann alternativ als Bildmenge bezeichnet werden. Der Bilddatensatz kann also eine Menge an mehreren Bildern umfassen, wobei die einzelnen Bilder jeweils in Form von Bilddaten vorliegen. Es kann beispielsweise vorgesehen sein, dass ein Trainingsvorgang dem beschriebenen Verfahrensschritt vorgeschaltet ist, in dessen Rahmen ausgehend von einem Datensatz von Bildern von realen Felgen das GAN trainiert wird. Durch Anwenden des GAN können daraufhin neue Bilder von Felgen generiert werden, die jeweils von den einzelnen Bilddaten des Bilddatensatzes beschrieben werden. Letztendlich werden also in dem Verfahrensschritt zahlreiche neue Felgen für ein Kraftfahrzeug als zweidimensionale Abbildung derartiger Felgen erzeugt, die als Bilddaten des erzeugten Bilddatensatzes bereitgestellt werden.The at least one artificial neural network is, for example, a generating adversarial network GAN (GAN for Generative Adversarial Network). An artificial neural network, which is often referred to as an artificial neural network, is a network of artificial neurons that is used for machine learning and artificial intelligence. Various problems can be solved computer-based with the help of an artificial neural network. Ultimately, an artificial neural network is an algorithm that is modeled on the human brain and can be used to interpret various data sources, such as image data, and to extract information or patterns from them in order to apply the extracted information or patterns to previously unknown data. Ultimately, this allows data-driven predictions to be made, so that, for example, artificial data are generated based on the data made available to the artificial neural network for training. The image data record therefore consists, for example, of numerous image data of rims designed by the artificial neural network for a motor vehicle, the rim image data included in this image data record being generated based on the information and patterns relating to rims of motor vehicles stored in the at least one artificial neural network. The image data set can alternatively be referred to as an image set. The image data set can therefore include a number of multiple images, with the individual images each being in the form of image data. It can be provided, for example, that a training process precedes the method step described, in the context of which the GAN is trained based on a data set of images of real wheel rims. By using the GAN, new images of rims can then be generated, which are each described by the individual image data of the image data set. Finally, in the method step, numerous new rims for a motor vehicle are generated as a two-dimensional image of such rims, which are provided as image data of the generated image data set.

In einem weiteren Verfahrensschritt erfolgt ein Bereitstellen von zumindest zwei der Bilddaten des Bilddatensatzes unter Anwendung eines Bilddatenauswahlkriteriums auf den Bilddatensatz. Es können beispielsweise automatisch zwei beliebige Bilddaten aus dem erzeugten Bilddatensatz ausgewählt und bereitgestellt werden. Für das Bereitstellen können beispielsweise die beiden ausgewählten Bilddaten auf einer Anzeigeeinrichtung angezeigt werden. Die Anzeigeeinrichtung kann beispielsweise ein Bildschirm, wie ein Computerbildschirm oder ein berührungssensitiver Bildschirm eines mobilen Endgeräts, wie einem Smartphone oder einem Tablet, sein, auf dem nun zum Beispiel zwei Abbildungen von Felgen gemäß den beiden ausgewählten Bilddaten angezeigt werden. In diesem Beispiel ist das Bilddatenauswahlkriterium ein computerbasierter Algorithmus, der eine Vorschrift umfasst, gemäß der zwei beispielsweise beliebige Bilddaten aus dem Bilddatensatz ausgewählt und beispielsweise angezeigt werden. Das Bilddatenauswahlkriterium kann alternativ dazu manuell bedienbar ausgebildet sein. Hierfür kann das Bilddatenauswahlkriterium eine Anzeige von beliebig ausgewählten Bilddaten auf der Anzeigeeinrichtung vorsehen, von denen eine Person, wie der Designer, mittels Betätigen eines Betätigungselements zumindest zwei auswählen kann, die daraufhin bereitgestellt werden.In a further method step, at least two of the image data of the image data set are provided using an image data selection criterion on the image data set. For example, any two image data can be selected and provided automatically from the generated image data set. For example, the two selected image data can be displayed on a display device for the provision. The display device can, for example, be a screen, such as a computer screen or a touch-sensitive screen of a mobile terminal device, such as a smartphone or a tablet, on which, for example, two images of wheel rims are now displayed according to the two selected image data. In this example, the image data selection criterion is a computer-based algorithm that includes a rule according to which two, for example, any image data items are selected from the image data set and displayed, for example. As an alternative to this, the image data selection criterion can be configured so that it can be operated manually. For this purpose, the image data selection criterion can provide a display of arbitrarily selected image data on the display device, from which a person, such as the designer, can select at least two by actuating an actuating element, which are then made available.

Ein weiterer Verfahrensschritt sieht ein Erzeugen von Kombinationsbilddaten vor. Die Kombinationsbilddaten werden unter Anwenden eines Kombinationsbilddatenerzeugungskriteriums auf die bereitgestellten zumindest zwei Bilddaten erzeugt. Die Kombinationsbilddaten werden mittels einer Interpolation zwischen den zumindest zwei bereitgestellten Bilddaten im Bilddatensatz und/oder mittels einer Rekombination von Teilbilddaten der zumindest zwei bereitgestellten Bilddaten erzeugt. Das Kombinationsbilddatenerzeugungskriterium kann eine Vorschrift, einen Algorithmus, Daten und/oder Informationen aufweisen, anhand derer die Interpolation und/oder die Rekombination durchgeführt werden kann.A further method step provides for generating combination image data. The combination image data is generated by applying a combination image data generation criterion to the at least two image data provided. The combination image data is generated by interpolation between the at least two image data provided in the image data set and/or by recombination of partial image data of the at least two image data provided. The combination image data generation criterion can have a rule, an algorithm, data and/or information, based on which the interpolation and/or the recombination can be carried out.

Bei der Interpolation wird bevorzugt eine Interpolation zwischen zwei bereitgestellten Bilddaten des Bilddatensatzes durchgeführt. Bevorzugt wird eine besondere Ausgestaltung des GAN verwendet, und zwar ein Stylebasierter GAN. Das erste künstliche neuronale Netzwerk des Style-basierten GAN dient mathematisch betrachten einer Abbildung von Zufallsvektoren in einem intermediären latenten Raum. Dafür kann beispielsweise linear zwischen zwei latenten Vektoren des Bilddatensatzes, die jeweils einem der zwei bereitgestellten Bilddaten zugeordnet sind, interpoliert werden. Hierbei wird ein weiterer latenter Vektor errechnet, der von den zwei bereitgestellten Bilddaten abweichenden weiteren Bilddaten zugeordnet ist, wobei dieser weitere latente Vektor Bilddaten zugeordnet ist, die zwischen den bereitgestellten zwei latenten Vektoren des Bilddatensatzes liegen. Mathematisch betrachtet wird bei der Interpolation eine durch den Bilddatensatz, der als eine Art Bilddatenraum oder latenter Bildraum verstanden werden kann, verlaufende Gerade generiert, die die zwei bereitgestellten Bilddaten verbindet. Jeder Ort auf dieser Gerade steht wiederum für weitere, an diesem Ort im Bilddatensatz angeordnete Bilddaten. Bei der Interpolation werden somit weitere Bilddaten bereitgestellt, die dem Bilddatensatz entnommen werden können. Die weiteren Bilddaten werden als die Kombinationsbilddaten bezeichnet.During the interpolation, an interpolation is preferably carried out between two provided image data of the image data set. A special configuration of the GAN is preferably used, specifically a style-based GAN. The first artificial neural network of the style-based GAN serves to mathematically consider a mapping of random vectors in an intermediate latent space. For this purpose, for example, linear interpolation can take place between two latent vectors of the image data set, each of which is associated with one of the two image data provided. In this case, a further latent vector is calculated, which is assigned to further image data that deviate from the two provided image data, this further latent vector being assigned to image data that lie between the two provided latent vectors of the image data set. Mathematically, a straight line running through the image data set, which can be understood as a type of image data space or latent image space, is generated during the interpolation, connecting the two provided image data. Each location on this straight line in turn stands for further image data arranged at this location in the image data set. Further image data, which can be taken from the image data set, are thus provided during the interpolation. The other image data is referred to as the combination image data.

Eine wichtige Voraussetzung für das Interpolieren ist, dass der Bilddatensatz stetig ist. Diese Eigenschaft des Bilddatensatzes ist beispielsweise mithilfe einer Auswertung einer Wahrnehmungspfadlänge PPL (PPL für Perceptual Path Length) messbar, wobei die PPL Unterschiede zwischen einzelnen Bilddaten des Bilddatensatzes misst. Die PPL ist ein Indikator dafür, ob sich das von den weiteren Bilddaten beschriebene Bild in einer Wahrnehmung fließend zwischen den von den zwei bereitgestellten Bilddaten beschriebenen Bildern ändert.An important prerequisite for interpolation is that the image data set is continuous. This property of the image data set can be measured, for example, using an evaluation of a perception path length PPL (PPL for Perceptual Path Length), the PPL measuring differences between individual image data of the image data set. The PPL is an indicator of whether the image described by the further image data changes in perception fluently between the images described by the two image data provided.

Es kann mittels der Interpolation erreicht werden, dass ein gewichteter Mittelwert zwischen den zumindest zwei bereitgestellten Bilddaten erzeugt wird. Beispielsweise können Informationen, insbesondere Designeigenschaften, der einen Bilddaten der zwei bereitgestellten Bilddaten zu 70 Prozent übernommen werden, wohingegen Informationen der anderen Bilddaten der zwei bereitgestellten Bilddaten nur zu 30 Prozent übernommen werden. Die Kombination dieser jeweiligen Informationen führt dann zu den von den zwei bereitgestellten Bilddaten abweichenden weiteren Bilddaten. Letztendlich kann durch die Interpolation eine beliebige und/oder eine von der Person mittels einer entsprechenden Betätigung des Betätigungselements ausgewählte Kombination der beiden bereitgestellten Bilddaten im Form der Kombinationsbilddaten erzeugt werden.The interpolation can be used to generate a weighted average between the at least two image data provided. For example, 70 percent of information, in particular design properties, of one image data of the two image data provided can be taken over, whereas only 30 percent of information of the other image data of the two image data provided can be taken over. The combination of this respective information then leads to the further image data deviating from the two provided image data. Ultimately, the interpolation can generate any combination of the two provided image data in the form of the combination image data and/or a combination selected by the person by means of a corresponding actuation of the actuating element.

Der Rekombination liegt die Erkenntnis zugrunde, dass die Bilddaten jeweils verschiedene Bildeigenschaften beschreiben, die jeweils von Teilbilddaten der Bilddaten beschrieben werden. Beispielsweise können die bereitgestellten Bilddaten jeweils 16 bis 18 Teilbilddaten aufweisen. Die Teilbilddaten können als unterschiedliche Informationenebenen oder Ebenen der Bilddaten verstanden werden. Die Teilbilddaten können als abstrakte Merkmale bezeichnet werden. Einzelne oder mehrere Teilbilddaten können beispielsweise die Anzahl der Speichen der Felge, die Farbgestaltung der Felge und/oder die Form der Speichen der Felge zumindest teilweise beschreiben und/oder determinieren.The recombination is based on the knowledge that the image data each describe different image properties which are each described by partial image data of the image data. For example, the image data provided can each have 16 to 18 partial image data. The partial image data can be understood as different information levels or levels of the image data. The sub-image data can be referred to as abstract features. One or more partial image data can, for example, at least partially describe and/or determine the number of spokes of the rim, the color design of the rim and/or the shape of the spokes of the rim.

Bei der Rekombination kann beispielsweise ausgewählt werden, dass bestimmte erste Teilbilddaten der einen Bilddaten der zwei bereitgestellten Bilddaten übernommen werden sollen, wohingegen davon abweichende zweite Teilbilddaten von den anderen Bilddaten der zwei bereitgestellten Bilddaten übernommen werden sollen. Derart kann beispielsweise den erstgenannten Bilddaten eine Farbgebung der Speiche und den zweitgenannten Bilddaten eine Anzahl der einzelnen Speichen der Felge für die Kombinationsbilddaten entnommen werden. Bei der Rekombination werden die anhand der jeweils ausgewählten Teilbilddaten ausgewählten Eigenschaften der jeweiligen bereitgestellten Bilddaten miteinander kombiniert.During the recombination, for example, it can be selected that certain first partial image data of one image data of the two provided image data should be taken over, whereas second partial image data deviating therefrom should be taken over from the other image data of the two provided image data. In this way, for example, a coloring of the spoke can be taken from the first-mentioned image data and a number of the individual spokes of the rim for the combination image data can be taken from the second-mentioned image data. During the recombination, the properties of the respective provided image data, selected on the basis of the respectively selected partial image data, are combined with one another.

Mit anderen Worten basiert die Rekombination darauf, dass die Eigenschaften der Bilddaten auf unterschiedlichen Ebenen im künstlichen neuronalen Netzwerk hinterlegt sind. Im Falle des GAN sind diese im sogenannten Generator des GAN hinterlegt. Der Generator ist das künstliche neuronale Netzwerk des GAN, das nach einem Trainingsprozess künstliche Bilddaten, zum Beispiel von Felgen, erzeugt, also den Bilddatensatz erzeugt. Üblicherweise wird während des Trainingsprozesses des Generators für einen vorgegebenen Objektstil, zum Beispiel einen vorgegebenen Felgenstil, mathematisch betrachtet stets ein oder zwei latente Vektoren auf bevorzugt allen Ebenen des Generators verwendet. Im allgemeinen Fall des Trainingsprozesses kann ein erster latenter Vektor Ebenen 1 bis k zugeordnet werden, wobei ein zweiter Vektor Ebenen k+1 bis n zugeordnet ist, wobei n eine maximale Anzahl der Ebenen beschreibt. Im Fall der Anwendung des trainierten künstlichen neuronalen Netzwerks kann auf jeder Ebene ein unterschiedlicher latenter Vektor verwendet werden. Bei bevorzugt 16 bis 18 derartigen Ebenen im Generator ergibt sich eine Vielzahl von möglichen, sich jeweils unterscheidenden Kombinationsbilddaten. Bevorzugt werden bei der Rekombination mehrere, bevorzugt mehr als zwei, bereitgestellte Bilddaten, die sich voneinander unterscheiden und somit mehrere unterschiedliche latente Vektoren, insbesondere bis zu n unterschiedliche Ebenen, wobei n eine Anzahl an Ebenen im trainierten Generator beschreibt, aufweisen, miteinander kombiniert. Letztendlich können hierdurch zum Beispiel eine oder mehrere Felge beschreibende Kombinationsbilddaten erzeugt werden, die beispielsweise persönlichen Vorstellungen des Designers am meisten entsprechen, wenn dieser mittels Betätigen des Betätigungselements angibt, welche Teilbilddaten der zwei bereitgestellten Bilddaten miteinander kombiniert werden sollen.In other words, the recombination is based on the fact that the properties of the image data are stored on different levels in the artificial neural network. In the case of the GAN, these are stored in the so-called generator of the GAN. The generator is the artificial neural network of the GAN, which generates artificial image data, for example of rims, after a training process, i.e. generates the image data set. During the training process of the generator for a given object style, for example a given rim style, one or two latent vectors are usually always used, from a mathematical point of view, preferably on all levels of the generator. In the general case of the training process, a first latent vector can be associated with levels 1 through k, with a second vector associated with levels k+1 through n, where n describes a maximum number of the levels. In the case of using the trained artificial neural network, a different latent vector can be used at each level. With preferably 16 to 18 such levels in the generator, there is a large number of possible combination image data that differ in each case. Preference will be given to the Recombination multiple, preferably more than two, provided image data that differ from each other and thus multiple different latent vectors, in particular up to n different levels, where n describes a number of levels in the trained generator, combined with each other. Ultimately, for example, one or more combination image data describing a rim can be generated that, for example, best correspond to the personal ideas of the designer when he indicates by actuating the actuating element which partial image data of the two provided image data are to be combined with one another.

Es können somit ausgehend von dem mithilfe des zumindest einen künstlichen neuronalen Netzwerks erzeugten Bilddatensatz durch Auswahl der zumindest zwei Bilddaten und deren Interpolation und/oder Rekombination die Kombinationsbilddaten erzeugt werden. Die Kombinationsbilddaten beschreiben bevorzugt ein Bild eines vom künstlichen neuronalen Netzwerk neu designten Objekts, das heißt eines bisher zumindest dem künstlichen neuronalen Netzwerk nicht bekannten Objekts.The combination image data can thus be generated on the basis of the image data set generated with the aid of the at least one artificial neural network by selecting the at least two image data and interpolating and/or recombining them. The combination image data preferably describes an image of an object newly designed by the artificial neural network, that is to say an object previously unknown at least to the artificial neural network.

In einem weiteren Verfahrensschritt werden die erzeugten Kombinationsbilddaten als Designinspiration bereitgestellt und können somit für die Designentwicklung des Objekts, hier beispielsweise für die Felge, weiter zur Verfügung gestellt sein. Die erzeugten Kombinationsbilddaten beschreiben eine zweidimensionale Abbildung des künstlich erzeugten Objekts, die jedoch eine realitätsnahe Ausgestaltungsform des Objekts darstellt.In a further method step, the generated combination image data are provided as design inspiration and can thus be further provided for the design development of the object, here for example for the rim. The combination image data generated describe a two-dimensional image of the artificially generated object, which, however, represents an embodiment of the object that is close to reality.

Von Vorteil ist, dass mittels des erfindungsgemäßen Verfahrens die Designentwicklung beschleunigt und gezielt ausführbar ist. Es können zum einen schnell neue Designinspirationen künstlich erzeugt werden, aus denen schnell eine Designlösungen abgeleitet werden kann, wodurch sich ein zeitlicher Auswand für die Designentwicklung verkürzen lässt. Außerdem werden schnelle Iterationen und Weiterentwicklung von bestehenden Designs und ein gezieltes Anpassen an bestehendes Branding oder verschiedene Designsprachen einer Marke möglich. Hierbei sind zudem keine Medienbrüche, das heißt kein Wechsel von beispielsweise Papierzeichnungen zu digitalen Zeichnungen, erforderlich. Letztendlich wird eine abstrakte aber dennoch gezielte und zum Beispiel vom Designer vorgegebene Interpolation und/oder Rekombination von künstlichen Bilddaten ermöglicht, um einfach und schnell eine Designinspiration erhalten zu können, was bisher mithilfe von Standardcomputerprogrammen wie CAD- und CAS-Software nur mit im Vergleich dazu großem Aufwand möglich ist.It is advantageous that the design development can be accelerated and carried out in a targeted manner by means of the method according to the invention. On the one hand, new design inspirations can be artificially generated quickly, from which a design solution can be quickly derived, which means that the time required for design development can be shortened. In addition, fast iterations and further development of existing designs and a targeted adaptation to existing branding or different design languages of a brand are possible. In addition, no media breaks are required, i.e. no change from paper drawings to digital drawings, for example. Ultimately, an abstract but nevertheless targeted interpolation and/or recombination of artificial image data specified by the designer, for example, is made possible in order to be able to obtain design inspiration quickly and easily, which was previously only possible in comparison with standard computer programs such as CAD and CAS software great effort is possible.

Bevorzugt kann die Interpolation und/oder Rekombination mehrmals auf Bilddaten angewendet werden. Es kann alternativ oder zusätzlich auf die erzeugten Kombinationsbilddaten sowie die bereits bereitgestellten oder neu bereitgestellte Bilddaten das Kombinationsbilddatenerzeugungskriterium angewendet werden, das heißt die Interpolation und/oder Rekombination dieser Daten zum erzeugen neuer Kombinationsbilddaten durchgeführt werden.Preferably, the interpolation and/or recombination can be applied multiple times to image data. Alternatively or additionally, the combination image data generation criterion can be applied to the generated combination image data and the already provided or newly provided image data, ie the interpolation and/or recombination of this data can be performed to generate new combination image data.

Ein Ausführungsbeispiel sieht vor, dass unter Anwenden eines Modellerzeugungskriteriums auf die bereitgestellten Kombinationsbilddaten ein Modell des Objekts erzeugt wird. Es kann in einem anschließenden Verfahrensschritt vorgesehen sein, dass aus den das Objekt zweidimensional beschreibenden erzeugten und bereitgestellten Kombinationsbilddaten zum Beispiel zweieinhalbdimensionale Bilddaten des Objekts bestimmt werden. Als zweidimensionale Bilddaten werden im Sinne der Erfindung Daten bezeichnet, die in einer Tiefenrichtung eine fest vorgegebene Information aufweisen. Ausgehend von den das Objekt zweidimensional beschreibenden Kombinationsdaten wird also beispielsweise in der senkrecht zu einer Bildebene der zweidimensionalen Abbildung gemäß den Kombinationsbilddaten angeordneten Tiefenrichtung lediglich eine beispielsweise zylinderförmige Fortsetzung eines Rands der zweidimensionalen Abbildung angenommen. Die zylinderförmige Fortsetzung weist beispielsweise eine vorgegebene Länge auf. Die vorgegebene Länge entspricht bevorzugt der Tiefe des Objekts in der Tiefenrichtung und umfasst beispielsweise eine typische Ausdehnung der Felge in der Tiefenrichtung, das heißt in der Richtung senkrecht zu einer Vorderansicht der Felge. Hierfür weist das Modellerzeugungskriterium beispielsweise eine Vorschrift und/oder einen Algorithmus auf, bei deren beziehungsweise dessen Anwendung aus den Kombinationsbilddaten das Modell des Objekts berechnet wird. Hierfür sind im Modellerzeugungskriterium beispielsweise Informationen zur typischen dreidimensionalen Ausgestaltung des Objekts, wie beispielsweise der Felge, hinterlegt. Die Informationen weisen beispielsweise eine typische Tiefeninformation des Objekts auf, falls die zweidimensionalen Daten die Vorderansicht des Objekts, das heißt eine Frontansicht beziehungsweise eine Draufsicht auf eine Schauseite des Objekts, beschreiben. Es erfolgt also eine automatische oder zumindest teilautomatische Übertragung der zweidimensionalen Kombinationsbilddaten in tatsächliche Modelldaten. Hierfür können beispielsweise die Kombinationsbilddaten in eine Software zum rechnerunterstützten Konstruieren, das heißt eine CAD-Software, importiert und mithilfe dieser Software das Modell des Objekts erzeugt werden. Der Designer wird hierdurch nicht nur mit einer Designinspiration unterstützt, sondern auch während der weiteren Designentwicklung begleitet, sodass er zum Beispiel bei der Ausarbeitung eines präsentationswürdigen fertigen Designvorschlags unterstützt wird. Die vereinfacht die Designentwicklung weiter.An exemplary embodiment provides that a model of the object is generated by applying a model generation criterion to the combination image data provided. In a subsequent method step, provision can be made for two-and-a-half-dimensional image data of the object, for example, to be determined from the generated and provided combination image data that describes the object two-dimensionally. Within the meaning of the invention, two-dimensional image data is data that has fixed information in a depth direction. Based on the combination data two-dimensionally describing the object, only a cylindrical continuation of an edge of the two-dimensional image, for example, is assumed in the depth direction arranged perpendicular to an image plane of the two-dimensional image according to the combination image data. The cylindrical continuation has a predetermined length, for example. The predetermined length preferably corresponds to the depth of the object in the depth direction and includes, for example, a typical extension of the rim in the depth direction, ie in the direction perpendicular to a front view of the rim. For this purpose, the model generation criterion has, for example, a rule and/or an algorithm, with the use of which the model of the object is calculated from the combination image data. For this purpose, information on the typical three-dimensional design of the object, such as the wheel rim, for example, is stored in the model generation criterion. The information includes, for example, typical depth information of the object if the two-dimensional data describe the front view of the object, ie a front view or a plan view of a viewing side of the object. The two-dimensional combination image data is therefore automatically or at least partially automatically transferred into actual model data. For this purpose, for example, the combination image data can be imported into software for computer-aided design, ie CAD software, and the model of the object can be generated using this software. The designer is not only supported with a design inspiration, but also accompanied during the further design development, so that he can, for example, develop a presentation-worthy finished design proposal is supported. This further simplifies design development.

Bevorzugt besteht zumindest die Option, das erzeugte Modell manuell zu beeinflussen und beispielsweise manuell Änderungen des Modells durchzuführen. Der Designer kann also das erzeugte Modell beeinflussen und beispielsweise eine Endversion des Modells erzeugen.There is preferably at least the option of influencing the generated model manually and, for example, making changes to the model manually. The designer can thus influence the model created and, for example, create a final version of the model.

Ein zusätzliches Ausführungsbeispiel sieht vor, dass mittels einer Herstellungsanlage das Objekt gemäß dem bereitgestellten Modell hergestellt wird. Es kann also vorgesehen sein, dass das tatsächliche Produkt, das heißt beispielsweise die Felge, automatisch produziert und hergestellt wird. Die Herstellungsanlage basiert beispielsweise auf einem additiven Fertigungsverfahren, zum Beispiel umfassend einen 3D-Drucker und eine Fotolithografie-Anlage. Alternativ oder zusätzlich kann die Herstellungsanlage eine Spritzgussmaschine aufweisen beziehungsweise die Spritzgussmaschine sein. Es wird einer Steuereinheit der Herstellungsanlage das erzeugte Modell des Objekts bereitgestellt. In der Steuereinheit kann ein Herstellungsbefehl zum Herstellen des Objekts gemäß dem Modell ermittelt und die Herstellungsanlage gemäß dem Herstellungsbefehl gesteuert und/oder angesteuert werden. Hierbei kann zum Beispiel ein Prototyp hergestellt werden, der auf den erzeugten Kombinationsbilddaten basiert.An additional exemplary embodiment provides that the object is manufactured in accordance with the model provided by means of a manufacturing facility. Provision can therefore be made for the actual product, ie the rim, for example, to be produced and manufactured automatically. The manufacturing facility is based, for example, on an additive manufacturing process, for example comprising a 3D printer and a photolithography system. Alternatively or additionally, the manufacturing plant can have an injection molding machine or be the injection molding machine. The generated model of the object is made available to a control unit of the production facility. A production command for producing the object according to the model can be determined in the control unit and the production facility can be controlled and/or activated according to the production command. Here, for example, a prototype can be produced that is based on the generated combination image data.

Es können letztendlich verschiedenartig ausgestaltete Objekte, bevorzugt aus Kunststoff, wie beispielsweise die Felge für das Kraftfahrzeug, einfach und kostengünstig hergestellt werden. Letztendlich kann das erfindungsgemäße Verfahren einen gesamten Herstellungsprozess des Objekts von der Designinspiration bis zur Herstellung des neu designten Objekts unterstützen.Ultimately, variously designed objects, preferably made of plastic, such as the wheel rim for the motor vehicle, can be produced simply and inexpensively. Ultimately, the method according to the invention can support an entire production process of the object, from the design inspiration to the production of the newly designed object.

Ein besonders vorteilhaftes Ausführungsbeispiel sieht vor, dass ein Basisbilddatensatz, der mehrere Basisbilddaten aufweist, die jeweils eine Ausgestaltung des vorgegebenen Objekts beschreiben, bereitgestellt wird. Die mehreren unterschiedlichen Basisbilddaten sind beispielsweise mehrere tausend Abbildungen des Objekts, wie beispielsweise der Felge. Hierfür können beispielsweise Fotografien von bekannten Felgen, die beispielsweise auf einer Fahrzeugmesse aufgenommen wurden, in den Basisbilddatensatz aufgenommen werden. Anhand dem bereitgestellten Basisbilddatensatz wird ein erzeugendes gegnerisches Netzwerk, also das GAN, trainiert. Das GAN kann alternativ als eine Art generatives tiefes neuronales Netzwerk beschrieben werden. Mittels des trainierten GAN wird der Bilddatensatz erzeugt.A particularly advantageous exemplary embodiment provides that a basic image data set, which has a plurality of basic image data that each describe a configuration of the specified object, is provided. The several different basic image data are, for example, several thousand images of the object, such as the wheel rim. For this purpose, for example, photographs of known wheel rims, which were taken at a vehicle trade fair, for example, can be included in the basic image data set. A generating opposing network, i.e. the GAN, is trained on the basis of the basic image data set provided. Alternatively, the GAN can be described as a type of generative deep neural network. The image data set is generated using the trained GAN.

Als GAN wird ein generativer Modellierungsansatz für Deep-Learning-Techniken verstanden. Das GAN ist eine algorithmische Architektur, die zwei künstliche neuronale Netzwerke verwendet. Die beiden künstlichen neuronalen Netzwerke dienen letztendlich dazu, synthetische, das heißt künstliche, neue Datensätze zu generieren.GAN is a generative modeling approach for deep learning techniques. The GAN is an algorithmic architecture that uses two artificial neural networks. The two artificial neural networks ultimately serve to generate synthetic, i.e. artificial, new data sets.

Das eine künstliche neuronale Netzwerk wird als Generator bezeichnet und erstellt den Bilddatensatz. Das andere künstliche neuronale Netzwerk wird als Diskriminator bezeichnet und bewertet die erstellten Bilddaten des Bilddatensatzes. Typischerweise bildet der Generator, mathematisch betrachtet, einen Vektor aus latenten Variablen auf einen gewünschten Ergebnisraum ab. Der Generators erlernt während des Trainierens, die Bilddaten des Bilddatensatzes nach einer ihm vorgegebenen Verteilung zu erzeugen. Der Diskriminator wird darauf trainiert, diese Ergebnisse des Generators von Daten aus der vorgegebenen Verteilung zu unterscheiden. Die vorgegebene Verteilung ist hier der Basisbilddatensatz. Am Ende des Trainierens ist der Generators derart ausgestaltet, Bilddaten zu erzeugen, die der Diskriminator nicht von den Bilddaten des Basisbilddatensatzes unterscheiden kann. Dadurch soll sich die erzeugte Verteilung, das heißt der Bilddatensatz, nach und nach einer echten Verteilung angleichen, das heißt zum Beispiel realistische Bilder von Felgen beschreibende Bilddaten aufweisen.One artificial neural network is referred to as a generator and creates the image data set. The other artificial neural network is referred to as a discriminator and evaluates the created image data of the image data set. Typically, from a mathematical point of view, the generator maps a vector of latent variables onto a desired result space. During the training, the generator learns to generate the image data of the image data set according to a distribution specified for it. The discriminator is trained to distinguish these generator results from data from the given distribution. The specified distribution is the basic image data set here. At the end of the training, the generator is designed to generate image data that the discriminator cannot distinguish from the image data of the basic image data set. As a result, the generated distribution, that is to say the image data set, should gradually adapt to a real distribution, that is to say, for example, have image data describing realistic images of wheel rims.

Bevorzugt wird eine besondere Ausgestaltung des GAN verwendet, und zwar ein Style-basiertes GAN, wie zum Beispiel ein StyleGAN1, StyleGAN2 und/oder ein SWAGAN (SWAGAN für Style and Wavelet based GAN). Das erste künstliche neuronale Netzwerk des beispielsweise als StyleGAN1 ausgebildeten Style-basierten GAN dient mathematisch betrachten einer Abbildung von Zufallsvektoren in einem intermediären latenten Raum. Eine Datenausgabe des ersten künstlichen neuronalen Netzwerks wird zum Beispiel dem zweiten künstlichen neuronalen Netzwerk an unterschiedlichen adaptiven Instanznormalisierungsschichten (AdaIN für Adaptive Instance Normalization) zugeführt und kontrolliert, dass die vom zweiten neuronalen Netzwerk erzeugten Bilddaten als realitätsnahe Bilddaten des Objekts ausgestaltet sind. Alternativ oder zusätzlich dazu kann die Datenausgabe des ersten künstlichen neuronalen Netzwerks dem zweiten künstlichen neuronalen Netzwerk an ähnlich funktionierenden Schichten zugeführt werden. Die ähnlich funktionierenden Schichten sind zum Beispiel im Falle des StyleGAN2 sogenannte Demodulationen und/oder Modulationen. Das zweite neuronale Netzwerk kann als Synthetisierungsnetzwerk bezeichnet werden. Die Erzeugung und somit eine Generierung von Bilddaten durch das Synthetisierungsnetzwerk erfolgt stufenweise, wobei eine Bildauflösung bei vier mal vier Pixeln anfängt und nach und nach mittels des künstlichen neuronalen Netzwerks verfeinert wird. Die latenten Vektoren werden auf unterschiedlichen Ebenen als Style-Vektoren verwendet. Die Anzahl der Ebenen liegt abhängig von der gewünschten Größe der generierten Bilddaten zwischen 16 und 18 Ebenen. Ausgegeben wird am Ende beispielsweise eine portable Netzwerkgrafik (PNG)-Bilddatei (PNG für Portable Network Graphics). Welchen Einfluss ein bestimmter Style-Vektor auf die generierten Bilddaten hat, hängt von der gewählten Tiefe der jeweiligen AdaIN-Schicht ab.A special configuration of the GAN is preferably used, specifically a style-based GAN, such as a StyleGAN1, StyleGAN2 and/or a SWAGAN (SWAGAN for Style and Wavelet-based GAN). The first artificial neural network of the style-based GAN designed, for example, as StyleGAN1 serves to mathematically consider a mapping of random vectors in an intermediate latent space. A data output from the first artificial neural network is fed to the second artificial neural network at different adaptive instance normalization layers (AdaIN for Adaptive Instance Normalization), for example, and it is checked that the image data generated by the second neural network is designed as realistic image data of the object. Alternatively or additionally, the data output of the first artificial neural network can be fed to the second artificial neural network at similarly functioning layers. In the case of the StyleGAN2, for example, the similarly functioning layers are so-called demodulations and/or modulations. The second neural network can be called a synthesizing network. The generation and thus generation of image data by the synthesizing network takes place in stages, with an image resolution of four times four pixels and is gradually refined using the artificial neural network. The latent vectors are used as style vectors at different levels. Depending on the desired size of the generated image data, the number of levels is between 16 and 18 levels. For example, a portable network graphics (PNG) image file (PNG for Portable Network Graphics) is output at the end. The influence of a specific style vector on the generated image data depends on the selected depth of the respective AdaIN layer.

Die vom Generator erzeugten Bilddaten weisen die Teilbilddaten auf, wobei die Teilbilddaten bei der Verwendung des Style-basierten GAN als Styles bezeichnet werden können. Die den ersten Ebenen zugeordneten Teilbilddaten sind bevorzugt für globale Eigenschaften des abgebildeten Objekts verantwortlich, wie zum Beispiel eine Anzahl und Form der Speichen der Felge. Die den unteren Ebenen zugeordneten Teilbilddaten bestimmen bevorzugt lokale Eigenschaften des Objekt, wie zum Beispiel eine Farbgestaltung der Felge. Das Synthetisierungsnetzwerks kann je nach der gewählten Auflösung Bilddaten mit 16 bis 18 Style-Vektoren, das heißt 16 bis 18 Teilbilddaten, kontrollieren. Die aneinandergereihten Style-Vektoren können als DNA-Vektoren bezeichnet werden.The image data generated by the generator has the sub-image data, wherein the sub-image data can be referred to as styles when using the style-based GAN. The partial image data assigned to the first levels are preferably responsible for global properties of the imaged object, such as the number and shape of the spokes of the rim. The sub-image data assigned to the lower levels preferably determine local properties of the object, such as a color design of the wheel rim. Depending on the selected resolution, the synthesizing network can control image data with 16 to 18 style vectors, i.e. 16 to 18 sub-image data. The style vectors strung together can be referred to as DNA vectors.

Voraussetzung für ein erfolgreiches Trainieren des Style-basierten GAN ist der Basisbilddatensatz, der verwendet wird. Hier verfügen der Basisbilddatensatz bevorzugt über eine große Vielfalt an Ausgestaltungen des Objekts. Bevorzugt kann der Basisbilddatensatz zusätzlich über eine Hauptkomponentenanalyse PCA (PCA für Principal Component Analysis) im Fourierraum evaluiert werden. Die Ergebnisse dieser Evaluation werden mittels T-verteilter stochastischer Nachbarschaftseinbettung T-SNE (T-SNE für T-Distributed Stochastic Neighbor Embedding) in einen zweidimensionalen Bildraum überführt. Dadurch können schon frühzeitig sich besonders ähnliche Bilddaten identifiziert und zum Beispiel aussortiert werden.A prerequisite for successfully training the style-based GAN is the base image data set that is used. Here, the basic image data set preferably has a large variety of configurations of the object. The basic image data set can preferably also be evaluated using a principal component analysis PCA in Fourier space. The results of this evaluation are converted into a two-dimensional image space using T-distributed stochastic neighborhood embedding T-SNE (T-SNE for T-Distributed Stochastic Neighbor Embedding). As a result, image data that are particularly similar can be identified and, for example, sorted out at an early stage.

Basierend auf Methoden der künstlichen Intelligenz wird also durch das Trainieren des GAN, insbesondere des Style-basierten GAN, mit einem für das gewünschte Objekt geeigneten Basisbilddatensatz erreicht, dass zuverlässig realitätsnahe Bilddaten des Objekts erzeugt und somit ein geeigneter Bilddatensatz für das Verfahren erzeugt und bereitgestellt wird.Based on methods of artificial intelligence, training the GAN, in particular the style-based GAN, with a basic image data set suitable for the desired object ensures that realistic image data of the object is reliably generated and thus a suitable image data set for the method is generated and made available .

Ein zusätzliches Ausführungsbeispiel sieht vor, dass alle Basisbilddaten des Basisbilddatensatzes das vorgegebene Objekt aus der gleichen Perspektive und insbesondere vor einem einheitlichen Hintergrund beschreibt. Es werden also nicht beliebige Ansichten des Objekts im Basisbilddatensatz miteinander kombiniert, sondern stets beispielsweise nur Vorderansichten, nur Rückansichten oder nur Seitenansichten des Objekts gewählt. Darüber hinaus ist es besonders vorteilhaft, wenn die einzelnen Basisbilddaten zunächst dahingehend vereinheitlicht werden, dass diese beispielsweise einen einheitlichen, das heißt für alle Basisbilddaten gleichen, insbesondere weißen oder transparenten, das heißt mit anderen Worten farblosen Hintergrund aufweisen, sodass beispielsweise keine hinter der Felge angeordnete Bremsvorrichtung des Kraftfahrzeugs als für das Design der Felge relevante Komponente fälschlicherweise vom GAN erkannt und in dem erzeugten Bilddatensatz berücksichtigt wird. Hierfür kann beispielsweise ein entsprechend ausgebildetes künstliches neuronales Netzwerk darauf trainiert werden, ein oder mehrere Hintergrundobjekte im Basisbilddatensatz zu erkennen, sodass vor dem Anwenden des GAN zum Erzeugen des Bilddatensatzes zunächst die Basisbilddaten mittels des entsprechenden künstlichen neuronalen Netzwerks derart bearbeitet werden, dass diese den einheitlichen Hintergrund aufweisen. Dies führt zu besonders brauchbaren Designinspirationen, die keine für die Designentwicklung des Objekts nicht benötigten zusätzlichen Hintergrundobjekte umfassen. Auf diese Weise lernt das künstliche neuronale Netzwerk für die Designinspiration ausschließlich relevante Repräsentationen des ObjektesAn additional exemplary embodiment provides that all the basic image data of the basic image data record describe the specified object from the same perspective and in particular against a uniform background. Thus, not arbitrary views of the object in the basic image data set are combined with one another, but always, for example, only front views, only rear views or only side views of the object are selected. In addition, it is particularly advantageous if the individual basic image data are first standardized in such a way that they have, for example, a uniform background, i.e. the same for all basic image data, in particular a white or transparent, i.e. colorless background, so that, for example, no background is arranged behind the rim Braking device of the motor vehicle is incorrectly recognized by the GAN as a component relevant to the design of the rim and is taken into account in the image data set generated. For this purpose, for example, a correspondingly trained artificial neural network can be trained to recognize one or more background objects in the basic image data set, so that before the GAN is used to generate the image data set, the basic image data are first processed using the corresponding artificial neural network in such a way that they form the uniform background exhibit. This leads to particularly useful design inspirations that do not include additional background objects unneeded for the design development of the object. In this way, the artificial neural network only learns relevant representations of the object for design inspiration

Ferner sieht es ein Ausführungsbeispiel vor, dass überprüft wird, ob sich die erzeugten Kombinationsbilddaten in dem zumindest einen Bildmerkmal von dem bereitgestellten Basisbilddatensatz unterscheiden. Nur falls dies der Fall ist, das heißt nur falls sich die erzeugten Kombinationsbilddaten in dem zumindest einen Bildmerkmal von den Basisbilddaten des bereitgestellten Basisbilddatensatzes unterscheiden, werden die erzeugten Kombinationsbilddaten bereitgestellt. Es wird also zusätzlich überprüft, ob durch Anwenden des GAN, insbesondere des Style-basierten GAN, tatsächlich nicht bereits von dem Basisbilddatensatz beschriebene Objekte als Kombinationsbilddaten bereitgestellt werden. Es wird also überprüft, ob die erzeugten Kombinationsbilddaten zumindest hinsichtlich eines in den Bilddaten optisch erkennbaren Aspekts von den Basisbilddaten des Basisbilddatensatzes abweichen. Das zumindest eine Bildmerkmal kann beispielsweise die Farbgebung, die Anzahl der Speichen und/oder die Form der Speichen sein. Hierdurch wird verhindert, dass beispielsweise mit bestimmten Basisbilddaten des Basisbilddatensatzes identische Kombinationsbilddaten als Designinspiration am Ende des Verfahrens bereitgestellt werden. Es wird also sichergestellt, dass es beim Bereitstellen der Designinspiration zu keiner Kopie von bereits existierenden Objekten, das heißt beispielsweise einem bereits existierenden bekannten Felgendesign, kommt.Furthermore, an exemplary embodiment provides that it is checked whether the generated combination image data differs in the at least one image feature from the basic image data set provided. Only if this is the case, that is to say only if the generated combination image data differs in the at least one image feature from the basic image data of the provided basic image data set, is the generated combination image data made available. It is therefore additionally checked whether by applying the GAN, in particular the style-based GAN, objects that have not already been described by the basic image data set are actually provided as combination image data. It is therefore checked whether the combination image data generated deviate from the basic image data of the basic image data set at least with regard to one aspect which can be visually recognized in the image data. The at least one image feature can be, for example, the coloring, the number of spokes and/or the shape of the spokes. This prevents, for example, combination image data that are identical to certain basic image data of the basic image dataset from being provided as design inspiration at the end of the method. It is thus ensured that when the design inspiration is provided, it is not a copy of already existing objects, ie for example a already existing well-known rim design.

Alternativ oder zusätzlich dazu kann vor dem tatsächlichen Bereitstellen der zumindest zwei Bilddaten ein analoger Abgleich mit dem Basisbilddatensatz durchgeführt werden, sodass nur die Bilddaten für das Erzeugen der Kombinationsbilddaten bereitgestellt werden, die sich in zumindest einem Bildmerkmal von den Basisbilddaten des bereitgestellten Basisbilddatensatzes unterscheiden. Es kann also bereits vor dem Erzeugen der Kombinationsbilddaten sichergestellt werden, dass die Kombinationsbilddaten auf Basis von neuen und von den Basisdaten abweichenden Bilddaten erzeugt werden.Alternatively or additionally, before the at least two image data are actually provided, an analog comparison with the basic image data set can be carried out, so that only the image data for generating the combination image data is provided that differs from the basic image data of the provided basic image data set in at least one image feature. It can therefore be ensured even before the combination image data is generated that the combination image data is generated on the basis of new image data that differ from the base data.

Des Weiteren sieht ein Ausführungsbeispiel vor, dass beim Anwenden des Bilddatenauswahlkriteriums auf den erzeugten Bilddatensatz zumindest zwei randomisierte Folgen von Bilddaten des erzeugten Bilddatensatzes bereitgestellt werden. Als randomisierte Folge von Bilddaten ist beispielsweise eine Diashow-artige Abfolge von einzelnen Abbildungen, das heißt von einzelnen Bilddaten, die jeweils eine Felge bildlich beschreiben, zu verstehen, wobei die nacheinander angezeigten Bilddaten beliebig und somit randomisiert gewählt sind. Die nacheinander angezeigten Bilddaten folgen also keiner fest vorgegebenen Reihenfolge. Jede der zumindest zwei randomisierten Folgen wird mittels der Anzeigeeinrichtung angezeigt. Die Anzeigeeinrichtung ist als Bildschirm, insbesondere als berührungssensitiver Bildschirm, ausgebildet. Die Anzeigeeinrichtung kann beispielsweise ein Computerbildschirm, eine Anzeigefläche eines Smartphones und/oder eines Tablets, ein Laptop-Bildschirm und/oder ein Fernsehbildschirm sein.Furthermore, an exemplary embodiment provides that when the image data selection criterion is applied to the generated image data set, at least two randomized sequences of image data of the generated image data set are provided. A randomized sequence of image data is to be understood, for example, as a slide show-like sequence of individual images, that is to say of individual image data that each describe a rim graphically, with the image data displayed one after the other being chosen arbitrarily and thus randomly. The image data displayed one after the other therefore do not follow a fixed predetermined order. Each of the at least two randomized sequences is displayed using the display device. The display device is designed as a screen, in particular as a touch-sensitive screen. The display device can be a computer screen, a display surface of a smartphone and/or a tablet, a laptop screen and/or a television screen, for example.

Durch das Betätigen der Betätigungseinrichtung sind die zumindest zwei angezeigten randomisierten Folgen von Bilddaten jeweils anhaltbar. Die Bedienungseinrichtung kann beispielsweise als Computermaus, Tastfeld (Touchpad), auswählbares Element auf dem berührungssensitiven Bildschirm, Taste, Knopf, Schalter und/oder Drehdrückschalter ausgebildet sein. Das Betätigen wird bevorzugt von dem Designer, das heißt einem Benutzer, durchgeführt. Beispielsweise können in insgesamt zwei Fenstern auf der Anzeigeeinrichtung jeweils eine randomisierte Folge der Bilddaten des erzeugten Bilddatensatzes dargestellt werden. Mittels der Betätigungseinrichtung kann der Benutzer in jedem dieser beiden Fenster ein Anhalten der randomisierten Folge von Bilddaten initiieren. Wenn die jeweilige randomisierte Folge angehalten wird, werden die zu einem Zeitpunkt des Anhaltens angezeigten Bilddaten bereitgestellt. Der Benutzer kann derart zum Beispiel zwei voneinander verschiedene Bilddaten auswählen. Die beschriebene manuelle Auswahl entspricht dann dem Anwenden des Bilddatenauswahlkriteriums.The at least two displayed randomized sequences of image data can each be stopped by actuating the actuating device. The operating device can be designed, for example, as a computer mouse, a touchpad, a selectable element on the touch-sensitive screen, a button, a button, a switch and/or a rotary pushbutton switch. The actuation is preferably performed by the designer, i.e. a user. For example, a randomized sequence of the image data of the generated image dataset can be displayed in a total of two windows on the display device. The user can initiate stopping of the randomized sequence of image data in each of these two windows by means of the actuating device. If the respective randomized sequence is stopped, the image data displayed at a point in time of the stop is provided. In this way, for example, the user can select two different image data items. The manual selection described then corresponds to applying the image data selection criterion.

Mittels Betätigen der Betätigungseinrichtung kann alternativ oder zusätzlich die randomisierte Folge, falls diese als fortlaufende ununterbrochene Folge von Bilddaten ausgebildet ist, sowohl gestoppt als auch anschließend wieder gestartet werden. Es kann alternativ oder zusätzlich dazu vorgesehen sein, dass die randomisierte Folge von Bilddaten nur dann von den einen Bilddaten zu den beliebigen nächsten Bilddaten fortschreitet, wenn die Betätigungseinrichtung betätigt wird. Es können also beispielsweise nach und nach die jeweiligen einzelnen Bilddaten der randomisierten Folge angezeigt werden, wobei der Wechsel zwischen den einzelnen Bilddaten vom Benutzer aktiv mittels der Betätigungseinrichtung initiiert wird.Alternatively or additionally, the randomized sequence can be both stopped and then restarted by actuating the actuating device, if it is in the form of a continuous, uninterrupted sequence of image data. Alternatively or additionally, it can be provided that the randomized sequence of image data only progresses from one image data to any next image data when the actuating device is actuated. For example, the respective individual image data of the randomized sequence can be displayed one after the other, the change between the individual image data being actively initiated by the user using the actuating device.

Die randomisierte Folge kann als lange Schleife von Bilddaten ausgebildet sein, wobei bevorzugt gleichzeitig in jedem Fenster die Folge oder eine von mehreren möglichen Folgen von Bilddaten angezeigt wird. Sobald der Benutzer von den zumindest zwei randomisierten Folgen zwei Bilddaten, das heißt beispielsweise zwei Abbildungen von Felgen, ausgewählt hat, die ihm gefallen, werden diese als bereitgestellte Bilddaten weiter berücksichtigt. Bereits durch das Anzeigen der randomisierten Folge der Bilddaten wird bereits eine gewisse Designinspiration für den Benutzer bereitgestellt, da dieser zahlreiche künstlich erzeugte Designs angezeigt bekommt.The randomized sequence can be in the form of a long loop of image data, with the sequence or one of a plurality of possible sequences of image data preferably being displayed simultaneously in each window. As soon as the user has selected two image data from the at least two randomized sequences, that is to say for example two images of wheel rims, which he likes, these are further taken into account as provided image data. A certain design inspiration is already provided for the user by displaying the randomized sequence of the image data, since numerous artificially generated designs are displayed to the user.

Ein weiteres Ausführungsbeispiel sieht vor, dass unter Anwenden eines Morphkriteriums auf die erzeugten Kombinationsbilddaten und/oder die bereitgestellten Bilddaten gemorphte Bilddaten erzeugt und bereitgestellt werden. Als Morphen wird das mittels eines Computerprogramms durchgeführte Verändern von Bilddaten verstanden, bei dem in einem wahrnehmbaren Prozess ohne abrupte Übergänge aus einem ursprünglichen Bild ein völlig neues Bild entsteht.A further exemplary embodiment provides for morphed image data to be generated and provided by applying a morph criterion to the generated combination image data and/or the provided image data. Morphing is understood to be the changing of image data by means of a computer program, in which a completely new image is created from an original image in a perceptible process without abrupt transitions.

Es kann zusätzlich zu der beschriebenen Interpolation und Rekombination, bei der jeweils zumindest zwei verschiedene Bilddaten zum Erzeugen der Kombinationsbilddaten verwendet werden, eine Variation der jeweiligen einzelnen bereitgestellten Bilddaten durchgeführt werden, wobei hierfür auf die Methodik des Morphens von Bilddaten zurückgegriffen wird. Das Morphkriterium weist eine Vorschrift und/oder einen Algorithmus auf, anhand derer beziehungsweise dessen das Morphen, das auch als Morphing bezeichnet werden kann, durchgeführt wird. Beim Morphen beziehungsweise Morphing wird das von den Bilddaten beschriebene Bild in ein anderes, von anderen Bilddaten beschriebenes Bild überführt.In addition to the interpolation and recombination described, in which at least two different image data are used to generate the combination image data, a variation of the respective individual image data provided can be carried out, using the method of morphing image data for this purpose. The morph criterion has a rule and/or an algorithm which is used to perform the morphing, which can also be referred to as morphing. In the case of morphing or morphing, the image described by the image data is converted into another image described by other image data.

Beispielsweise kann das Morphkriterium eine Änderung einer Farbgestaltung des mittels der Bilddaten beschriebenen Objekts vorsehen, sodass beispielsweise ausgehend von den erzeugten Kombinationsbilddaten lediglich durch Variation der Farbgestaltung die gemorphten Bilddaten erzeugt und zum Beispiel als Designinspiration bereitgestellt werden können. Dieser Verfahrensschritt kann beispielsweise nach dem Erzeugen der Kombinationsbilddaten und/oder bereits vor dem Erzeugen der Kombinationsdaten auf die oder einen Teil der bereitgestellten Bilddaten angewendet werden.For example, the morph criterion can provide a change in color design of the object described by means of the image data, so that, for example, starting from the generated combination image data, the morphed image data can be generated simply by varying the color design and can be made available, for example, as design inspiration. This method step can, for example, be applied to the or part of the image data provided after the combination image data has been generated and/or even before the combination data has been generated.

Ferner sieht ein Ausführungsbeispiel vor, dass beim Anwenden des Morphkriteriums zumindest eine Bildinformation verändert wird, die von Teilbilddaten der erzeugten Kombinationsbilddaten und/oder von den Teilbilddaten der bereitgestellten Bilddaten umfasst ist. Es kann beispielsweise die Farbgestaltung der Felgen unter Anwendung des Morphkriteriums derart variiert werden, dass die gemorphten Bilddaten von den erzeugten Kombinationsbilddaten beziehungsweise den bereitgestellten Bilddaten abweichen, ohne dass es zur Interpolation oder Rekombination zwischen mindestens zwei Bilddaten, mindestens zwei Kombinationsbilddaten oder zwischen Bilddaten und Kombinationsbilddaten gekommen ist. Das Morphen kann also gezielt zur Variation einer bestimmten Eigenschaft des Objekts herangezogen werden und somit eine Feineinstellung der bereitgestellten Designinspiration ermöglichen.Furthermore, an exemplary embodiment provides that when the morph criterion is applied, at least one piece of image information is changed that is included in the partial image data of the combination image data generated and/or in the partial image data of the image data provided. For example, the color design of the rims can be varied using the morph criterion in such a way that the morphed image data deviate from the generated combination image data or the provided image data without interpolation or recombination between at least two image data, at least two combination image data or between image data and combination image data is. Morphing can therefore be used specifically to vary a specific property of the object and thus enable fine adjustment of the design inspiration provided.

Ein Ausführungsbeispiel sieht vor, dass die Teilbilddaten zumindest eine von folgenden Bildinformationen aufweisen: Eine Form des Objekts, also beispielsweise eine Form von Speichen der Felge; eine Anzahl eines mehrfach vom Objekt umfassten vorgegebenen Teilobjekts des Objekts; eine Farbgebung des Objekts, also beispielsweise eine Farbgebung der Felge, und/oder einen Designstil des Objekts. Das Teilobjekt kann beispielsweise die Speiche der Felge sein, sodass beispielsweise eine Anzahl der Speichen der Felge als Bildinformation berücksichtigt werden kann. Als Designstil kann beispielsweise zwischen verspielt, glatt, klassisch und/oder modern unterschieden werden. Die Teilbilddaten stellen letztendlich die oben beschriebenen mehreren Ebenen der Bilddaten dar, von denen 16 bis 18 Stück exemplarisch vorgesehen wurden. Eine bestimmte Bildinformation kann allerdings auf mehrere Teilbilddaten und somit auf mehrere Ebenen aufgeteilt sein und/oder einzelne Teilbilddaten und somit eine einzelne Ebene kann mehreren Bildinformationen zugeordnet sein.An exemplary embodiment provides that the partial image data have at least one of the following items of image information: a shape of the object, ie, for example, a shape of the spokes of the rim; a number of a predetermined sub-object of the object comprised multiple times by the object; a coloring of the object, for example a coloring of the rim, and/or a design style of the object. The sub-object can be the spoke of the rim, for example, so that a number of the spokes of the rim can be taken into account as image information. As a design style, for example, a distinction can be made between playful, smooth, classic and/or modern. The partial image data ultimately represent the multiple levels of image data described above, of which 16 to 18 pieces were provided as an example. Certain image information can, however, be divided into multiple partial image data and thus multiple levels and/or individual partial image data and thus a single level can be assigned to multiple image information items.

Zu der Erfindung gehört auch eine Steuervorrichtung. Die Steuervorrichtung kann eine Datenverarbeitungsvorrichtung oder eine Prozessoreinrichtung aufweisen, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller und/oder zumindest einen FPGA (Field Programmable Gate Array) und/oder zumindest einen DSP (Digital Signal Processor) aufweisen. Des Weiteren kann die Prozessoreinrichtung Programmcode aufweisen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.The invention also includes a control device. The control device can have a data processing device or a processor device that is set up to carry out an embodiment of the method according to the invention. For this purpose, the processor device can have at least one microprocessor and/or at least one microcontroller and/or at least one FPGA (Field Programmable Gate Array) and/or at least one DSP (Digital Signal Processor). Furthermore, the processor device can have program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor device. The program code can be stored in a data memory of the processor device.

Die Erfindung betrifft ferner ein System aus einer Steuervorrichtung, einer Anzeigeeinrichtung und einer Betätigungseinrichtung, wobei mithilfe dieses Systems beim Anwenden des Bilddatenauswahlkriteriums von einem Benutzer die zumindest zwei Bilddaten des erzeugten Bilddatensatzes ausgewählt werden können, die letztendlich dem Erzeugen der Kombinationsbilddaten zugrunde gelegt werden. Ferner kann das System die Herstellungsanlage umfassen.The invention also relates to a system consisting of a control device, a display device and an actuating device, with the aid of this system when applying the image data selection criterion, the user can select the at least two image data of the generated image data set, which are ultimately used as a basis for generating the combination image data. Furthermore, the system can include the manufacturing facility.

Zu der Erfindung gehören auch Weiterbildungen des erfindungsgemäßen Systems sowie der erfindungsgemäßen Steuervorrichtung, die jeweils Merkmale aufweisen, wie sie bereits im Zusammenhang mit den Ausführungsbeispielen des erfindungsgemäßen Verfahrens beschrieben worden sind. Aus diesem Grund sind die entsprechenden Weiterbildungen hier nicht noch einmal beschrieben.The invention also includes developments of the system according to the invention and the control device according to the invention, each of which has features as have already been described in connection with the exemplary embodiments of the method according to the invention. For this reason, the corresponding developments are not described again here.

Das Objekt weist bevorzugt einen Kraftfahrzeugbezug auf. Das Objekt ist bevorzugt eine Komponente eines Kraftfahrzeug, wobei das Kraftfahrzeug bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als Personenbus oder Motorrad ausgestaltet ist.The object is preferably related to a motor vehicle. The object is preferably a component of a motor vehicle, the motor vehicle preferably being designed as a motor vehicle, in particular as a passenger car or truck, or as a passenger bus or motorcycle.

Die Erfindung umfasst auch die Kombinationen der Merkmale der beschriebenen Ausführungsformen. Die Erfindung umfasst also auch Realisierungen, die jeweils eine Kombination der Merkmale mehrerer der beschriebenen Ausführungsbeispiele aufweisen, sofern die Ausführungsbeispiele nicht als sich gegenseitig ausschließend beschrieben wurden.The invention also includes the combinations of features of the described embodiments. The invention also includes implementations that each have a combination of the features of several of the exemplary embodiments described, provided that the exemplary embodiments have not been described as mutually exclusive.

Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:

  • 1 eine schematische Darstellung eines Systems zum Bereitstellen einer Designinspiration für eine Designentwicklung eines Objekts;
  • 2 in schematischer Darstellung einen Signalflussgraphen für ein Verfahren zum Bereitstellen der Designinspiration für die Designentwicklung des Objekts; und
  • 3 eine schematische Darstellung eines Anwendens eines Morphkriteriums.
Exemplary embodiments of the invention are described below. For this shows:
  • 1 a schematic representation of a system for providing a design inspiration for a design development of an object;
  • 2 a schematic representation of a signal flow graph for a method for providing the design inspiration for the design development of the object; and
  • 3 a schematic representation of applying a morph criterion.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden. Daher soll die Offenbarung auch andere als die dargestellten Kombinationen der Merkmale der Ausführungsformen umfassen. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another and that each also develop the invention independently of one another. Therefore, the disclosure is also intended to encompass combinations of the features of the embodiments other than those illustrated. Furthermore, the described embodiments can also be supplemented by further features of the invention that have already been described.

In den Figuren bezeichnen gleiche Bezugszeichen jeweils funktionsgleiche Elemente.In the figures, the same reference symbols designate elements with the same function.

In 1 ist ein Kraftfahrzeug 1 skizziert, das an seinen Rädern jeweils eine Felge 2 aufweist. Die jeweilige Felge 2 weist jeweils mehrere Speichen 3 auf. Die Felge 2 wird im Folgen exemplarisch als ein Objekt 4 betrachtet, für das eine Designinspiration bereitgestellt werden soll.In 1 a motor vehicle 1 is outlined, which has a rim 2 on each of its wheels. The respective rim 2 has a plurality of spokes 3 in each case. The rim 2 is considered below as an example of an object 4 for which design inspiration is to be provided.

In 1 ist weiterhin eine Steuervorrichtung 5 skizziert, die eine Prozessoreinrichtung 6 aufweist. In der Prozessoreinrichtung 6 kann ein Basisbilddatensatz 7 gespeichert sein, der mehrere Basisbilddaten umfasst. Der Basisbilddatensatz 7 weist beispielsweise Basisbilddaten auf, die ein Bild der Felge 2 des Kraftfahrzeugs 1 beschreiben, insbesondere eine Vorderansicht der Felge 2 des Kraftfahrzeugs 1. Der Basisbilddatensatz 7 umfasst also Daten, die jeweils eine Ausgestaltung des Objekts 4 in Form der Felge 2 beschreiben.In 1 a control device 5 is also outlined, which has a processor device 6 . A basic image data set 7 which comprises a plurality of basic image data can be stored in the processor device 6 . The basic image data record 7 has, for example, basic image data that describes an image of the rim 2 of the motor vehicle 1, in particular a front view of the rim 2 of the motor vehicle 1. The basic image data record 7 therefore includes data that each describe a configuration of the object 4 in the form of the rim 2.

Die Steuervorrichtung 5 ist mit einer Anzeigeeinrichtung 8 sowie einer Betätigungseinrichtung 9 verbunden. Die Anzeigeeinrichtung 8 ist beispielsweise als Computerbildschirm ausgebildet, wohingegen die Betätigungseinrichtung 9 eine Computermaus und/oder eine Computertastatur sein kann. Auf der Anzeigeeinrichtung 8 kann beispielsweise der Basisbilddatensatz 7 angezeigt werden. Mittels der Betätigungseinrichtung 9 können beispielsweise einzelne Basisbilddaten des Basisbilddatensatzes 7 oder andere Daten ausgewählt werden.The control device 5 is connected to a display device 8 and an actuating device 9 . The display device 8 is embodied as a computer screen, for example, whereas the actuating device 9 can be a computer mouse and/or a computer keyboard. For example, the basic image data record 7 can be displayed on the display device 8 . For example, individual basic image data of the basic image data set 7 or other data can be selected by means of the actuating device 9 .

Die Steuervorrichtung 5 ist zudem mit einer Herstellungsanlage 10 verbunden, die als additive Herstellungsanlage 10, zum Beispiel einen 3D-Drucker sowie eine Fotolithografie-Anlage umfassend, ausgebildet sein kann. Die Herstellungsanlage 10 ist dazu ausgebildet, das Objekt 4, bei dem es sich beispielsweise um eine neu designte Felge 2 für das Kraftfahrzeug 1 handelt, herzustellen.The control device 5 is also connected to a manufacturing system 10, which can be embodied as an additive manufacturing system 10, for example comprising a 3D printer and a photolithography system. The production plant 10 is designed to produce the object 4, which is, for example, a newly designed wheel rim 2 for the motor vehicle 1.

Die jeweiligen Verbindungen zwischen der Steuervorrichtung 5 und der Anzeigeeinrichtung 8, der Betätigungseinrichtung 9 sowie der Herstellungsanlage 10 können jeweils drahtgebunden und/oder drahtlos ausgebildet sein. Die drahtlose Verbindung kann beispielsweise über ein drahtloses lokales Netzwerk (WLAN für Wireless Local Area Network), eine Bluetooth-Verbindung und/oder ein mobiles Datennetzwerk, beispielsweise basierend auf dem Mobilfunkstandard Long Term Evolution (LTE), Long Term Evolution Advanced (LTE-A) oder Fifth Generation (5G) ausgebildet sein.The respective connections between the control device 5 and the display device 8, the actuating device 9 and the production plant 10 can each be wired and/or wireless. The wireless connection can be established, for example, via a wireless local area network (WLAN for Wireless Local Area Network), a Bluetooth connection and/or a mobile data network, for example based on the Long Term Evolution (LTE), Long Term Evolution Advanced (LTE-A ) or Fifth Generation (5G).

In 2 ist ein Verfahren zum Bereitstellen einer Designinspiration für eine Designentwicklung des Objekts 4 gezeigt. In einem bevorzugt ersten Verfahrensschritt S1 wird der Basisbilddatensatz 7 bereitgestellt und anhand dessen ein erzeugendes gegnerisches Netzwerk GAN 12 (GAN 12 für Generative Adversarial Network) trainiert. Das GAN 12 umfasst zwei künstliche neuronale Netzwerke 11, von denen eines als Generator und das andere als Diskriminator bezeichnet wird. Durch das Trainieren des GAN 12 mit den zahlreichen Basisbilddaten des Basisbilddatensatzes 7 wird ein Bilddatensatz 13 erzeugt. Der Bilddatensatz 13 weist mehrere das Objekt 4 beschreibende Bilddaten 14 auf. Die mehreren Bilddaten 14 des Bilddatensatzes 13 unterscheiden sich jeweils in zumindest einem Bildmerkmal voneinander. Der Bilddatensatz 13 umfasst somit bevorzugt unendlich viele Bilddaten 14, die jeweils ein künstlich erzeugtes Objekt 4 beschreiben. Beispielsweise kann der Bilddatensatz 13 zahlreiche Bilddaten 14 von mittels des GAN 12 künstlich designten Felgen 2 umfassen. Der Bilddatensatz 13 wird also unter Anwendung von Methoden der künstlichen Intelligenz, das heißt unter Anwendung des GAN 12 künstlich erzeugt. Bevorzugt wird als GAN 12 ein Style-basiertes GAN 12, zum Beispiel ein StyleGAN, angewendet.In 2 a method for providing a design inspiration for a design development of the object 4 is shown. In a preferred first method step S1, the basic image data record 7 is provided and used to train a generating opposing network GAN 12 (GAN 12 for Generative Adversarial Network). The GAN 12 comprises two artificial neural networks 11, one called a generator and the other called a discriminator. An image data set 13 is generated by training the GAN 12 with the numerous basic image data of the basic image data set 7 . The image data set 13 has a plurality of image data 14 describing the object 4 . The plurality of image data 14 of the image data set 13 each differ from one another in at least one image feature. The image data set 13 thus preferably includes an infinite number of image data 14 which each describe an artificially created object 4 . For example, the image data set 13 can include numerous image data 14 of rims 2 artificially designed by means of the GAN 12 . The image data set 13 is thus generated artificially using methods of artificial intelligence, ie using the GAN 12 . A style-based GAN 12, for example a StyleGAN, is preferably used as the GAN 12.

In einem Verfahrensschritt S2 wird ein Bilddatenauswahlkriterium 15 auf den Bilddatensatz 13 angewendet, um zumindest zwei Bilddaten 14, die hier als Bilddaten 14a und 14b bezeichnet werden, bereitzustellen. Die jeweiligen Bilddaten 14a, 14b werden in einem jeweiligen Fenster 16 auf der Anzeigeeinrichtung 8 angezeigt. Genau genommen ist es vorgesehen, dass zunächst eine jeweilige randomisierte Folge von Bilddaten 14 des Bilddatensatzes 13 in jedem einzelnen der beiden Fenster 16 für einen Benutzer der Anzeigeeinrichtung 8 angezeigt wird. Hierfür kann beispielsweise eine beliebig gewählte Abfolge von einzelnen Bilddaten 14 des zuvor erzeugten Bilddatensatzes 13 angezeigt werden, beispielsweise als eine Diashow oder ein Video, das aus einzelnen Bilddaten 14, die nacheinander angezeigt werden, zusammengesetzt ist. Mittels Betätigen der Betätigungseinrichtung 9, das heißt beispielsweise durch Klicken mittels der Computermaus auf ein auf der Anzeigeeinrichtung 8 angezeigtes Betätigungselement, kann eine der randomisierten Folgen von Bilddaten 14 angehalten werden. Wenn die jeweilige randomisierte Folge angehalten wird, werden die zu einem Zeitpunkt des Anhaltens angezeigten Bilddaten 14, das heißt zum Beispiel das beim Anhalten angezeigte Bild der Felge 2, als Bilddaten 14a, 14b bereitgestellt und im Rahmen des weiteren Verfahrens berücksichtigt werden. Es kann alternativ oder zusätzlich dazu vorgesehen sein, dass sich die randomisierte Bildfolge nur dann von den einen Bilddaten 14 zu den nächsten Bilddaten 14 fortbewegt, wenn der Benutzer die Betätigungseinrichtung 9 betätigt. Alternativ oder zusätzlich können zwei beliebige Bilddaten 14a, 14b aus dem Bilddatensatz 13 automatisch ausgewählt und bereitgestellt werden.In a method step S2, an image data selection criterion 15 is applied to the image data set 13 in order to provide at least two image data 14, which are referred to here as image data 14a and 14b. The respective image data 14a, 14b are displayed in a respective window 16 on the display device 8. Strictly speaking, provision is made for a respective randomized sequence of image data 14 of the image data record 13 to be displayed in each of the two windows 16 for a user of the display device 8 . For this purpose, for example, an arbitrarily selected sequence of individual image data 14 of the previously generated image data set 13 can be displayed, for example as a slide show or a video composed of individual image data 14 that are displayed one after the other. By operating the operating device 9, i.e. by clicking, for example, using the computers mouse on an operating element displayed on the display device 8, one of the randomized sequences of image data 14 can be stopped. When the respective randomized sequence is stopped, the image data 14 displayed at the point in time of stopping, ie for example the image of the rim 2 displayed when stopping, is provided as image data 14a, 14b and is taken into account in the further process. Alternatively or additionally, it can be provided that the randomized image sequence only moves from one image data 14 to the next image data 14 when the user actuates the actuating device 9 . Alternatively or additionally, any two image data 14a, 14b from the image data set 13 can be automatically selected and provided.

In einem weiteren Verfahrensschritt S3 wird ein Kombinationsbilddatenerzeugungskriterium 17 auf die bereitgestellten Bilddaten 14a, 14b angewendet, um Kombinationsbilddaten 18 zu erzeugen. Hierfür sind zwei alternativ oder zusätzlich zueinander durchführbaren Vorgehensweisen zum Erzeugen der Kombinationsbilddaten 18 vorgesehen. Zum einen können mittels Interpolation zwischen den zumindest zwei bereitgestellten Bilddaten 14a, 14b des Bilddatensatzes 13 die Kombinationsbilddaten 18 erzeugt werden (in 2 in Verfahrensschritt S3 links dargestellt). Zum anderen kann eine Rekombination von Teilbilddaten 19 der zumindest zwei bereitgestellten Bilddaten 14a, 14b durchgeführt werden, um die Kombinationsbilddaten 18 zu erzeugen (in 2 in Verfahrensschritt S3 rechts dargestellt).In a further method step S3, a combination image data generation criterion 17 is applied to the provided image data 14a, 14b in order to generate combination image data 18. For this purpose, two procedures for generating the combination image data 18 that can be carried out alternatively or in addition to one another are provided. On the one hand, the combination image data 18 can be generated by interpolation between the at least two provided image data 14a, 14b of the image data set 13 (in 2 shown on the left in method step S3). On the other hand, recombination of partial image data 19 of the at least two image data 14a, 14b provided can be carried out in order to generate the combination image data 18 (in 2 shown in method step S3 on the right).

Die Interpolation kann beispielsweise als eine Bewegung auf einer Geraden zwischen den Bilddaten 14a und 14b im Bilddatensatz 13 verstanden werden, wobei ein beliebig ausgewählter Ort auf dieser Geraden für weitere Bilddaten 14 des Bilddatensatzes 13 steht, die als Kombinationsbilddaten 18 ausgewählt werden können.The interpolation can be understood, for example, as a movement on a straight line between the image data 14a and 14b in the image dataset 13, with any selected location on this straight line representing further image data 14 of the image dataset 13, which can be selected as combination image data 18.

Die bei der Rekombination berücksichtigten Teilbilddaten 19 weisen zumindest eine Bildinformation 20 auf, wobei diese eine Form des Objekts 4, eine Anzahl eines mehrfach vom Objekt 4 umfassten vorgegebenen Teilobjekten des Objekts 4, eine Farbgebung des Objekts 4 und/oder einen Designstil des Objekts 4 beschreiben kann. Es kann beispielsweise vorgesehen sein, dass die Bilddaten 14a mit zwei bestimmten Teilbilddaten 19 mit den Bilddaten 14b mit davon abweichenden bestimmten Teilbilddaten 19 kombiniert werden. Die zwei bestimmten Teilbilddaten 19 der Bilddaten 14a beschreiben zum Beispiel die Anzahl der Speichen 3 der Felge 2 und/oder die Form der Speichen, wohingegen die bestimmten Teilbilddaten 19 der Bilddaten 14b die Farbgebung der Felge 2 beschreiben. Bei einer Rekombination dieser drei Teilbilddaten 19 werden Kombinationsbilddaten 18 erzeugt, in denen die ausgewählten Eigenschaften, also die ausgewählten Bildinformationen 20 gemäß den ausgewählten Teilbilddaten 19 kombiniert sind.The sub-image data 19 taken into account during the recombination have at least one item of image information 20, which describes a shape of the object 4, a number of specified sub-objects of the object 4 that are included several times in the object 4, a coloring of the object 4 and/or a design style of the object 4 can. Provision can be made, for example, for the image data 14a with two specific partial image data 19 to be combined with the image data 14b with specific partial image data 19 that deviate from them. The two specific partial image data 19 of the image data 14a describe, for example, the number of spokes 3 of the rim 2 and/or the shape of the spokes, whereas the specific partial image data 19 of the image data 14b describe the coloring of the rim 2. When these three partial image data 19 are recombined, combination image data 18 are generated in which the selected properties, ie the selected image information 20 are combined according to the selected partial image data 19 .

In einem anschließenden Überprüfungsschritt P1 kann überprüft werden, ob sich die erzeugten Kombinationsbilddaten 18 in zumindest einem Bildmerkmal, das von den Kombinationsbilddaten 18 umfasst wird, von den Basisbilddaten des bereitgestellten Basisbilddatensatzes 7 unterscheiden. Falls dies nicht der Fall ist, kann beispielsweise erneut das Erzeugen der Kombinationsbilddaten 18 in Verfahrensschritt S3 oder das Bereitstellen der Bilddaten 14 in Verfahrensschritt S2 durchgeführt werden. Falls das Überprüfen im Überprüfungsschritt P1 erfolgreich ist, werden die erzeugten Kombinationsbilddaten 18 tatsächlich bereitgestellt.In a subsequent checking step P1, it can be checked whether the generated combination image data 18 differs from the basic image data of the provided basic image data set 7 in at least one image feature that is comprised by the combination image data 18 . If this is not the case, for example, the combination image data 18 can be generated again in method step S3 or the image data 14 can be provided in method step S2. If the checking in the checking step P1 is successful, the generated combination image data 18 is actually provided.

In einem Verfahrensschritt S4 werden die erzeugten Kombinationsbilddaten 18 als Designinspiration bereitgestellt, beispielsweise indem sie auf der Anzeigeeinrichtung 8 angezeigt werden.In a method step S4, the generated combination image data 18 are provided as design inspiration, for example by being displayed on the display device 8.

Es kann alternativ oder zusätzlich dazu ein weiterer Überprüfungsschritt (hier nicht dargestellt) vorgesehen sein, bei dem überprüft wird, ob die Bilddaten 14a, 14b in dem zumindest einen Bildmerkmal von den Basisbilddaten des bereitgestellten Basisbilddatensatzes 7 abweichen, wobei, falls dies nicht der Fall ist, neue Bilddaten 14a, 14b im Schritt S2 ausgewählt und bereitgestellt werden können.As an alternative or in addition to this, a further checking step (not shown here) can be provided, in which it is checked whether the image data 14a, 14b deviate in the at least one image feature from the basic image data of the basic image data set 7 provided, and if this is not the case , new image data 14a, 14b can be selected and provided in step S2.

In einem weiteren Verfahrensschritt S5 wird ein Modellerzeugungskriterium 21 auf die bereitgestellten Kombinationsbilddaten 18 angewendet, wobei ein Modell 22 des Objekts 4 erzeugt wird. Ausgehen von beispielsweise der zweidimensionalen Darstellung der Felge 2, die von den Kombinationsbilddaten 18 umfasst ist, kann das Modell 22 eben dieser Felge 2 mithilfe des Modellerzeugungskriteriums 21 erzeugt werden. Das Modell 22 weist zum Beispiel eine fest vorgegebene Tiefenausdehnung auf und kann aufgrund der bevorzugt nicht realitätsnah designten Tiefenausdehnung als zweieinhalbdimensionales Modell 22 bezeichnet werden. Daraufhin kann in einem weiteren Verfahrensschritt S6 mittels der Herstellungsanlage 10 das Objekt 4 gemäß dem bereitgestellten Modell 22 tatsächlich hergestellt werden. Bevorzugt erfolgt hier die Erstellung eines Kunststoffobjekts, das mittels des 3D-Druckers hergestellt wird.In a further method step S5, a model generation criterion 21 is applied to the combination image data 18 provided, with a model 22 of the object 4 being generated. Starting from, for example, the two-dimensional representation of the rim 2 that is included in the combination image data 18 , the model 22 of precisely this rim 2 can be generated with the aid of the model generation criterion 21 . The model 22 has, for example, a fixed depth extent and can be referred to as a two-and-a-half-dimensional model 22 because the depth extent is preferably not designed to be realistic. In a further method step S6, the object 4 can then actually be manufactured using the manufacturing system 10 in accordance with the model 22 provided. A plastic object is preferably created here, which is produced by means of the 3D printer.

Im Verfahrensschritt S1 kann zudem vorausgesetzt werden, dass die Basisbilder des Basisbilddatensatzes 7 das vorgegebene Objekt 4 jeweils aus einer gleichen Perspektive, also beispielsweise stets als Vorderansicht, beschreiben. Alternativ oder zusätzlich dazu kann es vorgesehen sein, dass die Basisdaten das Objekt 4 vor einem einheitlichen Hintergrund beschreiben, wobei dieser einheitliche Hintergrund durch das Anwenden von Methoden der künstlichen Intelligenz auf den Basisbilddatensatz 7 künstlich erzeugt werden kann.In method step S1 it can also be assumed that the basic images of the basic image data set 7 each describe the specified object 4 from the same perspective, ie always as a front view, for example. Alternatively or additionally, it can be provided that the Base data describe the object 4 against a uniform background, with this uniform background being able to be generated artificially by applying methods of artificial intelligence to the base image data set 7 .

In 3 ist ein weiteres Bearbeiten der Kombinationsbilddaten 18 und/oder der bereitgestellten Bilddaten 14a, 14b gezeigt. Hierbei wird in einem Beispiel A ein Morphkriterium 23 beispielsweise auf die bereitgestellten Bilddaten 14a angewendet. Bei diesem Anwenden werden gemorphte Bilddaten 24 erzeugt. Beim Morphen werden hier ausgewählte Teilbilddaten 19 der erzeugten bereitgestellten Bilddaten 14a berücksichtigt, wie beispielsweise die Farbgestaltung der Felge 2. Durch lediglich Variation der möglichen Farbgestaltung der Felge 2 kann nun eine von den Bilddaten 14a ausgehende Gerade im Bilddatensatz 13 betrachtet werden, entlang derer verschiedene abweichende Felgen 2 mit andere Farbgestaltungen zu finden sind, sodass letztendlich die gemorphten Bilddaten 24 als farblich abgewandelte Bilddaten 14 zu den bereitgestellten Bilddaten 14a bestimmt und bereitgestellt werden können. Sie können beispielsweise als zusätzliche Designinspiration vorgesehen sein. Das Morphkriterium 23 kann beispielsweise vor dem Verfahrensschritt S3 auf die bereitgestellten Bilddaten 14a angewendet werden.In 3 further processing of the combination image data 18 and/or the provided image data 14a, 14b is shown. In this case, in an example A, a morph criterion 23 is applied to the provided image data 14a, for example. With this application, morphed image data 24 is produced. During morphing, selected partial image data 19 of the generated image data 14a provided are taken into account, such as the color design of the rim 2. By simply varying the possible color design of the rim 2, a straight line in the image data set 13 starting from the image data 14a can be viewed, along which various deviating Rims 2 can be found with other color designs, so that ultimately the morphed image data 24 can be determined and provided as color-modified image data 14 for the provided image data 14a. For example, they can be provided as additional design inspiration. The morph criterion 23 can be applied to the provided image data 14a before the method step S3, for example.

In einem Beispiel B ist ein Beispiel für die Anwendung des Morphkriteriums 23 auf die bereitgestellten Bilddaten 14b skizziert. Hierbei werden zwei verschiedene Bildinformationen 20, die von den Teilbilddaten 19 beschrieben werden, variiert, beispielsweise erneut die Farbgestaltung der Felge 2 und zusätzlich dazu eine Anzahl der Speichen 3 der Felge 2. Es kann nun unter Anwendung des Morphkriteriums 23 sowohl die Veränderung der Farbgestaltung der Felge 2 als auch die Anzahl der Speichen 3 der Felge 2 variiert und entsprechend gemorphte Bilddaten 24 im Bilddatensatz 13 aufgefunden und bereitgestellt werden.In an example B, an example for the application of the morph criterion 23 to the provided image data 14b is outlined. Here, two different pieces of image information 20, which are described by the partial image data 19, are varied, for example again the color design of the rim 2 and, in addition, a number of the spokes 3 of the rim 2. Now, using the morph criterion 23, both the change in the color design of the Rim 2 and the number of spokes 3 of rim 2 varies and correspondingly morphed image data 24 is found in image data set 13 and made available.

Alternativ oder zusätzlich dazu zeigt ein Beispiel C das Anwenden des Morphkriterium 23 auf die erzeugten Kombinationsbilddaten 18. Im Beispiel C kann das Morphkriterium 23 beispielsweise zwischen dem Verfahrensschritt S3 und dem Verfahrensschritt S4 angewendet werden. Es kann beispielsweise als Bildinformation 20 der Kombinationsbilddaten 18 die Farbgestaltung der Kombinationsbilddaten 18 variiert werden, sodass gemorphte Bilddaten 24 erzeugt werden, bei denen die Farbgestaltung verglichen mit den erzeugten Kombinationsbilddaten 18 verändert wurde.Alternatively or additionally, example C shows the application of the morph criterion 23 to the generated combination image data 18. In example C, the morph criterion 23 can be applied between method step S3 and method step S4, for example. For example, the color design of the combination image data 18 can be varied as image information 20 of the combination image data 18, so that morphed image data 24 are generated in which the color design has been changed compared to the combination image data 18 generated.

Die Verfahrensschritte S1, S2, S3 und P1 sowie das Anwenden des Morphkriteriums 23 werden bevorzugt von der Prozessoreinrichtung 6 der Steuervorrichtung 5 durchgeführt. Das Bereitstellen der zweiten Kombinationsbilddaten 18 sowie gegebenenfalls das Anwenden des Bilddatenauswahlkriteriums 15 im Verfahrensschritt S2 können durch Steuern und/oder Ansteuern der Anzeigeeinrichtung 8 sowie der Betätigungseinrichtung 9 durchgeführt werden, bevorzugt mithilfe der Steuervorrichtung 5. Der Verfahrensschritt S5 kann erneut von der Prozessoreinrichtung 6 durchgeführt werden, wohingegen der Verfahrensschritt S6 durch Ansteuern der Herstellungsanlage 10, beispielsweise mittels der Steuervorrichtung 5, erfolgen kann. Die einzelnen Verfahrensschritte der Steuervorrichtung 5 können von der Prozessoreinrichtung 6 initiiert werden.The method steps S1, S2, S3 and P1 and the application of the morph criterion 23 are preferably carried out by the processor device 6 of the control device 5. The provision of the second combination image data 18 and, if necessary, the application of the image data selection criterion 15 in method step S2 can be carried out by controlling and/or activating the display device 8 and the actuating device 9, preferably with the aid of the control device 5. The method step S5 can be carried out again by the processor device 6 , whereas the method step S6 can be carried out by controlling the production system 10, for example by means of the control device 5. The individual method steps of the control device 5 can be initiated by the processor device 6 .

Insgesamt zeigen die Beispiele eine mit künstlicher Intelligenz unterstützte Designinspirationsbereitstellung bevorzugt für das kraftfahrzeugbezogene Objekt 4. Ziel ist hierbei also, eine sogenannte Al-Aided Design Plattform (AI für Artificial Intelligence, also künstliche Intelligenz) mit verschiedenen Modulen zu entwickeln. Mit dieser kann der Designer neue Ideen und Skizzen innerhalb von wenigen Minuten erzeugen. Letztendlich wird hierbei der Designer durch mittels Methoden der künstlichen Intelligenz erzeugte Designs inspiriert, die daher als Designinspirationen bezeichnet werden können. Mittels einer grafischen Nutzeroberfläche, das heißt mittels der Kombination aus der Anzeigeeinrichtung 8 und der Betätigungseinrichtung 9, kann der Benutzer eine Veränderung der mittels künstlicher Intelligenz generierten Bilddaten 14a, 14b in Sekundenschnelle ansteuern und verschiedene Funktionen basieren auf künstlicher Intelligenz nutzen, wie Interpolation und Rekombination von unterschiedlichen Bilddaten 14a, 14b, wobei hierbei verschiedene Designs und Stilrichtungen kombiniert werden können. So lassen sich komplett neue Designs des Objekts 4 in Sekunden basierend auf bestehenden und bekannten Ideen ableiten. Die hierbei erzielten Ergebnisse, das heißt die erzeugten Kombinationsbilddaten 18, können im Rahmen einer bestehenden Designsprache einer Marke oder eines Marktes gestaltet werden. Es lassen sich jedoch ebenfalls Designoperationen durchführen, die für einen menschlichen Nutzer von einem Abstraktionsgrad her zu komplex wären, da mithilfe der künstlichen Intelligenz ein umfassender Bilddatensatz 13 aus unzähligen Bilddaten 14 bereitgestellt wird. Letztendlich kann der Designer die mittels der künstlichen Intelligenz generierten, bevorzugt fotorealistischen Bilder, die von den Kombinationsbilddaten 18 beschrieben werden, exportieren und diese gegebenenfalls direkt mit einer computerunterstützten Gestaltung CAS (CAS für Computer-Aided Styling) weiterverarbeiten. Inspirierende Muster und Formen lassen sich somit zielgerichtet bereitstellen und beispielsweise mit anderen Designideen verschmelzen und kombinieren. Letztendlich wird nämlich mithilfe der erzeugten Kombinationsbilddaten 18 eine Designinspiration bereitgestellt.Overall, the examples show a provision of design inspiration supported with artificial intelligence, preferably for the motor vehicle-related object 4. The aim here is therefore to develop a so-called Al-Aided Design Platform (AI for Artificial Intelligence, i.e. artificial intelligence) with various modules. With this, the designer can generate new ideas and sketches within a few minutes. Ultimately, the designer is inspired by designs created using methods of artificial intelligence, which can therefore be described as design inspirations. By means of a graphical user interface, i.e. by means of the combination of the display device 8 and the actuating device 9, the user can control a change in the image data 14a, 14b generated by means of artificial intelligence in a matter of seconds and use various functions based on artificial intelligence, such as interpolation and recombination of different image data 14a, 14b, in which case different designs and styles can be combined. In this way, completely new designs for the Object 4 can be derived in seconds based on existing and known ideas. The results achieved here, ie the combination image data 18 generated, can be designed within the framework of an existing design language of a brand or a market. However, design operations can also be carried out that would be too complex for a human user in terms of a degree of abstraction, since a comprehensive image data set 13 made up of innumerable image data 14 is provided with the aid of artificial intelligence. Ultimately, the designer can export the preferably photorealistic images generated by the artificial intelligence and described by the combination image data 18 and, if necessary, further process them directly with a computer-aided design CAS (CAS for Computer-Aided Styling). Inspiring patterns and shapes can thus be provided in a targeted manner and, for example, merged and combined with other design ideas. Ultimately, namely using the generated combinations tion image data 18 provided a design inspiration.

Weiterführend kann man die Kombinationsbilddaten 18 dazu nutzen, den Designern Hilfsmittel an die Hand zu legen, die ein feines Steuern von Teilbilddaten 19 und letztendlich von Bildinformationen 20 ermöglichen. Es kann beispielsweise eine Hauptkomponentenanalyse PCA (PCA für Principal Competent Analysis) angewendet werden, in deren Rahmen Hauptvektoren oder latente Vektoren berechnet werden. Die Eigenschaften dieser Vektoren müssen im Nachgang visuell interpretiert werden. Der Designer kann einen von den latenten Vektoren beschriebenen Punkt im latenten Raum entlang der Hauptkomponente verschieben und somit die Ausprägung spezifischer Eigenschaften am Bauteil variieren. Er kann also die oben beschriebenen gemorphten Bilddaten 24 unter Anwendung des Morphkriteriums 23 auf die bereitgestellten Bilddaten 14a, 14b und/oder die erzeugten Kombinationsbilddaten 18 erzeugen.Furthermore, the combination image data 18 can be used to provide the designers with tools that enable fine control of partial image data 19 and ultimately of image information 20 . For example, a Principal Competent Analysis (PCA) can be used, in which principal vectors or latent vectors are calculated. The properties of these vectors have to be interpreted visually afterwards. The designer can move a point in the latent space described by the latent vectors along the main component and thus vary the expression of specific properties on the component. He can therefore generate the morphed image data 24 described above using the morph criterion 23 on the provided image data 14a, 14b and/or the combination image data 18 generated.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • EP 3675063 A1 [0004]EP 3675063 A1 [0004]
  • US 20190325628 A1 [0005]US20190325628A1 [0005]
  • CN 112084719 A [0006]CN 112084719A [0006]

Claims (10)

Verfahren zum Bereitstellen einer Designinspiration für eine Designentwicklung eines Objekts (4), umfassend folgende Schritte: - Erzeugen (S1) eines Bilddatensatzes (13), der mehrere, das Objekt (4) beschreibende Bilddaten (14) aufweist, mittels zumindest eines künstlichen neuronalen Netzwerks (11), wobei sich die mehreren Bilddaten (14) im erzeugten Bilddatensatz (13) jeweils in zumindest einem Bildmerkmal voneinander unterscheiden; - Bereitstellen (S2) von zumindest zwei der Bilddaten (14a, 14b) des Bilddatensatzes (13) unter Anwenden eines Bilddatenauswahlkriteriums (15) auf den Bilddatensatz (13); - Erzeugen (S3) von Kombinationsbilddaten (18) unter Anwenden eines Kombinationsbilddatenerzeugungskriteriums (17) auf die bereitgestellten zumindest zwei Bilddaten (14a, 14b), wobei die Kombinationsbilddaten (18) mittels einer Interpolation zwischen den zumindest zwei bereitgestellten Bilddaten (14a, 14b) des Bilddatensatzes (13) und/oder mittels einer Rekombination von Teilbilddaten (19) der zumindest zwei bereitgestellten Bilddaten (14a, 14b) erzeugt werden; - Bereitstellen (S4) der erzeugten Kombinationsbilddaten (18) als die Designinspiration.Method for providing a design inspiration for a design development of an object (4), comprising the following steps: - Generating (S1) an image data set (13) which has a plurality of image data (14) describing the object (4) by means of at least one artificial neural network (11), the plurality of image data (14) in the generated image data set (13) differ from each other in at least one image feature; - Providing (S2) of at least two of the image data (14a, 14b) of the image data set (13) using an image data selection criterion (15) on the image data set (13); - Generation (S3) of combination image data (18) by applying a combination image data generation criterion (17) to the provided at least two image data (14a, 14b), the combination image data (18) being generated by means of an interpolation between the at least two provided image data (14a, 14b) of the Image data set (13) and/or by means of a recombination of partial image data (19) of the at least two image data (14a, 14b) provided; - Providing (S4) the generated combination image data (18) as the design inspiration. Verfahren nach Anspruch 1, wobei unter Anwenden eines Modellerzeugungskriteriums (21) auf die bereitgestellten Kombinationsbilddaten (18) ein Modell (22) des Objekts (4) erzeugt wird (S5).procedure after claim 1 , wherein a model (22) of the object (4) is generated (S5) by applying a model generation criterion (21) to the provided combination image data (18). Verfahren nach Anspruch 2, wobei mittels einer Herstellungsanlage (10) das Objekt (4) gemäß dem bereitgestellten Modells (22) hergestellt wird (S6).procedure after claim 2 , the object (4) being produced (S6) in accordance with the model (22) provided by means of a production plant (10). Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Basisbilddatensatz (7), der mehrere unterschiedliche Basisbilddaten, die jeweils eine Ausgestaltung des vorgegebenen Objekts (4) beschreiben, umfasst, bereitgestellt wird und anhand des bereitgestellten Basisbilddatensatzes (7) zwei künstliche neuronale Netzwerke (11) eines erzeugenden gegnerischen Netzwerks (12) trainiert werden, wobei mittels des trainierten erzeugenden gegnerischen Netzwerks (12) der Bilddatensatz (13) erzeugt wird.Method according to one of the preceding claims, wherein a basic image data set (7) comprising a plurality of different basic image data, each of which describes an embodiment of the specified object (4), is provided and, using the basic image data set (7) provided, two artificial neural networks (11) a generating opposing network (12), the image data set (13) being generated by means of the trained generating opposing network (12). Verfahren nach Anspruch 4, wobei die Basisbilddaten des Basisbilddatensatzes (7) das vorgegebene Objekt (4) jeweils aus einer gleichen Perspektive und insbesondere vor einem einheitlichen Hintergrund beschreiben.procedure after claim 4 , wherein the basic image data of the basic image dataset (7) describe the specified object (4) from the same perspective and in particular against a uniform background. Verfahren nach einem der Ansprüche 4 oder 5, wobei überprüft wird, ob sich die erzeugten Kombinationsbilddaten (18) in dem zumindest einen Bildmerkmal von den Basisbilddaten des Basisbilddatensatzes (7) unterscheiden (P1), und nur, falls dies der Fall ist, die erzeugten Kombinationsbilddaten (18) bereitgestellt werden.Procedure according to one of Claims 4 or 5 , wherein it is checked whether the generated combination image data (18) differs in the at least one image feature from the basic image data of the basic image data set (7) (P1), and only if this is the case, the generated combination image data (18) are provided. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Anwenden des Bilddatenauswahlkriteriums (15) auf den erzeugten Bilddatensatz (13) zumindest zwei randomisierte Folgen von Bilddaten (14a, 14b) des erzeugten Bilddatensatzes (13) bereitgestellt werden, von denen jede mittels einer Anzeigeeinrichtung (8) angezeigt wird und mittels Betätigen einer Betätigungseinrichtung (9) anhaltbar ist, wobei, wenn die jeweilige randomisierte Folge angehalten wird, die zu einem Zeitpunkt des Anhaltens angezeigten Bilddaten (14a, 14b) bereitgestellt werden.Method according to one of the preceding claims, wherein when the image data selection criterion (15) is applied to the generated image data set (13), at least two randomized sequences of image data (14a, 14b) of the generated image data set (13) are provided, each of which can be displayed by means of a display device (8 ) is displayed and can be stopped by actuating an actuating device (9), wherein if the respective randomized sequence is stopped, the image data (14a, 14b) displayed at a time of stopping are provided. Verfahren nach einem der vorhergehenden Ansprüche, wobei unter Anwenden eines Morphkriteriums (23) auf die erzeugten Kombinationsbilddaten (18) und/oder die bereitgestellten neuen Bilddaten (14a, 14b) gemorphte Bilddaten (24) erzeugt und bereitgestellt werden.Method according to one of the preceding claims, wherein morphed image data (24) are generated and provided by applying a morph criterion (23) to the generated combination image data (18) and/or the provided new image data (14a, 14b). Verfahren nach Anspruch 8, wobei beim Anwenden des Morphkriteriums (23) zumindest eine von Teilbilddaten (19) der erzeugten Kombinationsbilddaten (18) und/oder von den Teilbilddaten (19) der bereitgestellten Bilddaten (14a, 14b) umfasste Bildinformation (20) verändert wird.procedure after claim 8 , wherein when the morph criterion (23) is applied, at least one of the partial image data (19) of the generated combination image data (18) and/or the partial image data (19) of the provided image data (14a, 14b) comprises image information (20) being changed. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Teilbilddaten (19) zumindest eine von folgenden Bildinformationen (20) aufweisen: - eine Form des Objekts (4); - eine Anzahl eines mehrfach vom Objekt (4) umfassten vorgegebenen Teilobjekts (4) des Objekts (4); - eine Farbgebung des Objekts (4); - ein Designstil des Objekts (4).Method according to one of the preceding claims, wherein the partial image data (19) have at least one of the following items of image information (20): - a shape of the object (4); - a number of a multiple of the object (4) included predetermined sub-object (4) of the object (4); - A coloring of the object (4); - a design style of the object (4).
DE102021120126.8A 2021-08-03 2021-08-03 Method for providing design inspiration for a design development of an object Pending DE102021120126A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021120126.8A DE102021120126A1 (en) 2021-08-03 2021-08-03 Method for providing design inspiration for a design development of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021120126.8A DE102021120126A1 (en) 2021-08-03 2021-08-03 Method for providing design inspiration for a design development of an object

Publications (1)

Publication Number Publication Date
DE102021120126A1 true DE102021120126A1 (en) 2023-02-09

Family

ID=84975341

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021120126.8A Pending DE102021120126A1 (en) 2021-08-03 2021-08-03 Method for providing design inspiration for a design development of an object

Country Status (1)

Country Link
DE (1) DE102021120126A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023135623A1 (en) 2023-12-18 2025-06-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for the automated generation of a design feature of an object, in particular a motor vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190325628A1 (en) 2018-04-23 2019-10-24 Accenture Global Solutions Limited Ai-driven design platform
EP3675063A1 (en) 2018-12-29 2020-07-01 Dassault Systèmes Forming a dataset for inference of solid cad features
CN112084719A (en) 2020-09-17 2020-12-15 招商局重庆交通科研设计院有限公司 Road Traffic Intelligent Design Platform Based on Computer Aided Design and Aided Simulation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190325628A1 (en) 2018-04-23 2019-10-24 Accenture Global Solutions Limited Ai-driven design platform
EP3675063A1 (en) 2018-12-29 2020-07-01 Dassault Systèmes Forming a dataset for inference of solid cad features
CN112084719A (en) 2020-09-17 2020-12-15 招商局重庆交通科研设计院有限公司 Road Traffic Intelligent Design Platform Based on Computer Aided Design and Aided Simulation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KUSIAK, Andrew: Convolutional and generative adversarial neural networks in manu-facturing. International Journal of Production Research, Vol. 58, 2020, No. 5, S. 1594-1604
OH, Sangeun [et al.]: Design automation by integrating generative adversarial net-works and topology optimization. In: International Design Engineering Technical Con-ferences and Computers and Information in Engineering Conference, American Society of Mechanical Engineers, Vol. 51753, 2018. S. V02AT03A008

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023135623A1 (en) 2023-12-18 2025-06-18 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Method for the automated generation of a design feature of an object, in particular a motor vehicle

Similar Documents

Publication Publication Date Title
EP3393875B1 (en) Method for the improved detection of objects by a driver assistance system
DE112005000579T5 (en) System and method for a design space definition for a morphable model
DE102019001911A1 (en) Building new character set symbols from partial considerations
DE202017007534U1 (en) Multiscale 3D texture synthesis
DE102021104110A1 (en) Process for parameterizing an image synthesis from a 3D model
DE102021110083A1 (en) Training an artificial neural network to test an automatic driving function of a vehicle
EP1830235A2 (en) Configuration of tools and processes for metal forming
WO2020187394A1 (en) Method for training an autoencoder and for classifying data, and autoencoder and computer program for this purpose
DE112020007352B4 (en) MANAGEMENT INSTITUTION, PROGRAM AND MANAGEMENT PROCEDURES
DE102021120126A1 (en) Method for providing design inspiration for a design development of an object
DE102022117841B4 (en) Method, system and computer program product for calibrating and validating a driver assistance system (ADAS) and/or an automated driving system (ADS) taking into account a subjective assessment
DE102023124870B4 (en) Method and system for the extended automated calibration of functions of a driver assistance system
DE102023000357B3 (en) Method for generating test data for a simulation of an assistance system of an at least partially assisted motor vehicle, computer program product, computer-readable storage medium and electronic computing device
DE102021133483A1 (en) Process for creating an exterior design of a powered vehicle
DE102022117313A1 (en) Design device and method for providing a 3D model for design development of an object
DE102023204603A1 (en) Method for creating a reference map representation
DE102023200802A1 (en) Process for improved manufacturing of components
WO2006061185A1 (en) Method for producing technical drawings from 3d models using at least two colliding 3d bodies
DE102020208765A1 (en) Image classifier with variable receptive fields in convolutional layers
DE102019217951A1 (en) Method and apparatus for determining a domain distance between at least two data domains
DE102013102528A1 (en) Method for determining a mounting position of an interior sensor system in a vehicle
DE102020133654B3 (en) Computer-implemented method for modifying a component of a computer-generated model of a motor vehicle
DE102019207090A1 (en) Method for providing an object tracking function
DE102023122675A1 (en) Methods for automated generation of synthetic scenes
DE102017206395A1 (en) Method, computer program and device for adjusting a measuring device and system

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE