Skip to content

Category: Technology

In this category I file blog posts about technology. If it is about the Internet of Things, agile development, a framework, a method, a pattern, or everything els technology relevant, I will post it here.

KI in der Softwareentwicklung: Zwischen Hype und echter Relevanz

Künstliche Intelligenz hat die Softwareentwicklung bereits in ihren Grundzügen verändert – und viele beobachten diesen Trend mit Skepsis. Ist das wirklich relevant? Oder nur der nächste Hype, der bald wieder verpufft? Tatsächlich ist KI mehr als ein nettes Gimmick: Erste Werkzeuge zeigen schon heute, wie sich einfache Anforderungen schnell, effizient und größtenteils zuverlässig umsetzen lassen. Klar müssen die Prompts von Entwicklern erstellt werden um die richtigen Ergebnisse zu erzielen. Aber oft braucht es nur noch rund 20 Prozent Ihrer Fähigkeiten. Was heißt das? Prozesse lassen sich beschleunigen, repetitive Aufgaben abgeben – und das Potenzial ist noch lange nicht ausgeschöpft.

Der bekannte Denker Günther Dück sprach einst von der „Hybris-vs.-Hype“-Kurve: Zuerst wird eine neue Technologie überhyped, dann folgt das Tal der Ernüchterung. Genau dort, wo echte Produktivität entsteht, treten oft die Skeptiker auf den Plan: „Ich hab’s doch gesagt, das bringt alles nichts.“ Doch gerade an diesem Punkt zeigt sich, wer den nächsten Schritt geht – und wer zurückbleibt.

Denn auch wenn KI nicht perfekt ist, ist sie bereits hoch relevant. Perfektion ist keine Voraussetzung für Nutzen. Wer sie heute einsetzt, automatisiert Prozesse, beschleunigt Workflows und schafft Raum für Kreativität. Wer sie ignoriert, bleibt zurück.

Es geht nicht darum, KI zu verklären. Sie wird nicht jeden Menschen ersetzen und auch nicht jede Software automatisch besser machen. Aber sie ist ein mächtiges Werkzeug – und in der Softwareentwicklung in den richtigen Händen ein echter Produktivitäts-Booster. Der Unterschied liegt in der Herangehensweise: Wer technische Kompetenz mit strategischem Denken kombiniert, wer seine Rolle im Entwicklungsprozess anpasst und erkennt, welche Aufgaben sich sinnvoll an die Werkzeuge delegieren lassen, kann mit KI gezielt Softwareprojekte beschleunigen, sogar die Qualität erhöhen und neue Potenziale heben.

Ich erinnere mich gut an die We Are Developers Konferenz 2023 in Berlin. Damals präsentierte Thomas Dohmke, CEO von GitHub, GitHub Copilot. Mein erster Gedanke: “Ganz nett, für kleinere Funktionen sicher hilfreich.” Revolutionär? Wohl kaum. Doch mit der Zeit wurde klar: Das ist kein besserer Code-Vervollständiger, das ist eine neue Art zu arbeiten. Heute sehe ich, wie Tools selbstständig API-Debugging durchführen, Datenbankabfragen erzeugen oder Migrationsskripte vorbereiten – ohne menschliche Hilfe. Das ist mehr als Automatisierung. Das ist ein Paradigmenwechsel.

Unsere Rolle als Entwickler verändert sich. Wir geben der Maschine Aufgaben, denken in Zielen, nicht mehr in jedem einzelnen Befehl. KI wird zum verlässlichen Partner, der rund um die Uhr unterstützt. Wer das versteht, nutzt KI nicht als Gimmick, sondern als strategisches Werkzeug.

Wie also anfangen? Ganz einfach: Tools ausprobieren. Frei verfügbare Versionen testen oder auch mal 10, 20 Euro in einen Test-Monat investieren. Mit privaten Projekten starten, nicht selbst überlegen, sondern dem KI-Werkzeug die Aufgabe geben, Erfahrungen sammeln. Es muss nicht perfekt sein – entscheidend ist, zu lernen. Ebenso, wie ich ein neues Framework oder eine Sprache lerne.

Wie bleibt man auf dem laufenden? Es gibt eine Flut an Informationen. Aber niemand muss alles mitbekommen. Es reicht, ein paar gezielte Quellen zu verfolgen – sei es ein YouTube-Kanal, ein LinkedIn-Newsletter oder ein Blog. Schritt für Schritt entsteht so eine Routine, wie beim Lernen eines neuen Frameworks. Kleine Projekte, Tests, Erkenntnisse. Und plötzlich wird klar, wie viel möglich ist.

Das Neue ist da. Noch nicht perfekt, aber mächtig. Es wächst. Und es wird bleiben.

Jetzt ist der Moment, sich damit auseinanderzusetzen. Jetzt ist die Zeit, zu lernen.

Denn wer heute beginnt, profitiert morgen. Wer aber weiter auf der Schreibmaschine tippt, während andere schon Word und KI nutzen, wird den Anschluss verlieren.

Leave a Comment

Published: Artificial-Intelligence-Based Image Generation from Scene Graphs for Metaverse Recording Retrieval

It all started with using AI Image Generation capabilities to (re)generate from minimal data. The recording of metaverse experiences supports various use cases in collaboration, VR training, and more. Such Metaverse Recordings can be created as multimedia and time series data during the 3D rendering process of the audio–video stream for the user. To search in a collection of recordings, Multimedia Information Retrieval methods can be used. Also, querying and accessing Metaverse Recordings based on the recorded time series data is possible. The presentation of human-perceivable results of time-series-based Metaverse Recordings is a challenge. This paper demonstrates an approach to generating human-perceivable media from time-series-based Metaverse Recordings with the help of generative artificial intelligence. Our findings show the general feasibility of the approach and outline the current limitations and remaining challenges. Read the full paper

Leave a Comment

Generative KI in der Softwareentwicklung: Fortschritte und Grenzen

Ende 2024 stellt sich die Frage wie die Generative KI in der Softwareentwicklung vorangeschritten ist. Die Softwareentwicklung erlebt derzeit einen tiefgreifenden Wandel, der durch den Einsatz generativer KI (GenAI)-Tools vorangetrieben wird. Von automatisierten Code-Vervollständigungen bis hin zur vollständigen Erstellung von Prototypen bieten diese Tools neuartige Möglichkeiten, die Effizienz, Produktivität und sogar die Kreativität von Entwicklern zu steigern. Doch wie weit sind wir wirklich gekommen, und welche Bereiche der Softwareentwicklung werden bereits heute durch GenAI beeinflusst? In diesem Artikel werfen wir einen umfassenden Blick auf den aktuellen Stand der Dinge, betrachten praxisnahe Anwendungsfälle, beleuchten bestehende Herausforderungen und wagen einen Ausblick auf die Zukunft.

2 Comments

Five Levels of Autonomous Coding

The Levels of Autonomous Coding, or Autonomous Programming, describe the degree of automation of programming and software engineering tools. While AI tools advance more and more, the ultimate goal of a system that develops, deploys, and maintains software fully automatically is not achieved – yet. In the lack of a categorization, the following five levels provide classes of programming tools.
A few weeks ago, we had a brainstorming session to challenge the statement: “In 2026, simple coding of business software by a human is unprofitable.” It quickly dawned on me that for this prediction to hold, we would need fully autonomous coding or at least a high degree of automation. This concept immediately reminded me of the various levels of autonomous driving—Eureka! Of course, I wasn’t the first to make this connection; someone on the internet had brilliantly mapped these levels from driving to coding.
Let’s dive into these levels to understand better how they might apply to the future of coding:

Level 1: Assisted Coding

  • What Happens: Coders handle the bulk of the work but can request autogenerated code snippets to copy-paste or use as code completion.
  • Responsibility: Coders must validate and are ultimately responsible for all code, ensuring accuracy and functionality.

Level 2: Partly Automated Coding

  • What Happens: Coders primarily use the IDE to specify features, and the AI then modifies the code accordingly.
  • Responsibility: While the AI handles some coding, coders must validate all changes and remain responsible for the final output.

Level 3: Highly Automated Coding

  • What Happens: Coders use a more advanced interface, not limited to traditional IDEs, to specify features. AI can automatically handle specific tasks like fulfilling software tests, generating test code, reorganizing code for better maintainability, creating new user interface features, and proposing and testing solutions to errors.
  • Responsibility: Coders intervene in exceptional cases or when errors arise that the AI cannot resolve.

Level 4: Fully Automated Coding

  • What Happens: The developer’s role shifts more towards a Product Owner’s. AI can code features based on detailed specifications and autonomously handle errors—making adjustments, testing, and waiting for developers to review and commit changes.
  • Responsibility: The AI provider assumes a significant portion of the responsibility, especially in maintaining the integrity and functionality of the code.

Level 5: Autonomous Coding

  • What Happens: AI handles everything from coding new features based on persistent specifications to upgrading dependencies and fixing errors. It manages the full lifecycle of the code, including deployment.
  • Responsibility: AI becomes largely self-sufficient, significantly reducing the need for human intervention.
Progress toward these levels raises intriguing questions about the future role of human programmers. Will the specifications themselves not be in traditional code? Possibly. They may be in a more human-understandable form that can be translated directly into machine code, with the compiler doing most of the verifying of the machine code. Unlike human language, which can be ambiguous and harder for compilers to validate, this system promises greater precision and efficiency.
As we look to a future where coding is increasingly automated, it’s fascinating to consider how these changes will redefine the landscape of software development. It’s not just about the technology; it’s about how we adapt to these tools to ensure that they enhance our capabilities without displacing the creative and critical elements that define good software development. What do you think? Are we heading toward a world where coders are more supervisors and reviewers than active coders? The conversation is just beginning, and your insights are more valuable than ever!
4 Comments

My First Year as a part-time PhD Student

… A Journey into Multimedia Information Retrieval and the Metaverse Hello everyone! I can’t believe it’s already been a year since I embarked on my PhD journey. Time truly flies when you’re engrossed in research, and what a year it’s been! Today, I want to share with you some of the highlights, challenges, and learnings from my first year as a PhD student, focusing on my research project in Multimedia Information Retrieval (MMIR) and its intersection with the Metaverse. The Research Project: MMIR Meets the Metaverse When I started my PhD, I was fascinated by the untapped potential of Multimedia Information Retrieval. MMIR is all about searching and retrieving multimedia data like images, videos, and audio. But I wanted to take it a step further. I was intrigued by the burgeoning Metaverse—a collective virtual shared space created by the convergence of virtually enhanced physical reality and interactive digital spaces. The…

Leave a Comment

Integration of Metaverse and Multimedia Information Retrieval

Diving into the vibrant intersection of the Metaverse and Multimedia Information Retrieval (MMIR), we uncover a fascinating journey that’s shaping the future of Metaverse integration with MMIR. Imagine stepping into a universe where the boundaries between physical and digital realities blur, creating an immersive world teeming with multimedia content. This is the Metaverse, a collective virtual space, built on the pillars of augmented and virtual reality technologies.

At the heart of integrating these worlds lies the challenge of efficiently indexing, retrieving, and making sense of a deluge of multimedia content—ranging from images, videos, to 3D models and beyond. Enter the realm of Multimedia Information Retrieval (MMIR), a sophisticated field dedicated to the art and science of finding and organizing multimedia data.

The research explored here, as my Ph.D. project, ventures into this nascent domain, proposing innovative frameworks for bridging the Metaverse with MMIR. Their work unveils two primary narratives: one, how we can leverage MMIR to navigate the vast expanses of the Metaverse, and two, how the Metaverse itself can generate new forms of multimedia for MMIR to organize and retrieve.

In the first scenario, imagine you’re an educator in the Metaverse, looking to build an interactive, virtual classroom. Through the integration of MMIR, you can seamlessly pull educational content—be it historical artifacts in 3D, immersive documentaries, or interactive simulations—right into your virtual space, enriching the learning experience like never before.

The second scenario flips the perspective, showcasing the Metaverse as a prolific generator of multimedia content. From virtual tours and events to user-generated content and beyond, every action and interaction within the Metaverse creates data ripe for MMIR’s picking. This opens up a new frontier for content creators and researchers alike, offering fresh avenues for creativity, analytics, and even virtual heritage preservation.

Navigating these possibilities, the research present sophisticated models and architectures, such as the Generic MMIR Integration Architecture for Metaverse Playout (GMIA4MP) and the Process Framework for Metaverse Recordings (PFMR). These frameworks lay the groundwork for seamless interaction between the Metaverse and MMIR systems, ensuring content is not only accessible but meaningful and contextual.

To bring these concepts to life, let’s visualize a diagram illustrating the flow from multimedia creation in the Metaverse, through its processing by MMIR systems, to its ultimate retrieval and utilization by end-users. This visualization underscores the cyclical nature of creation and discovery in this integrated ecosystem.

In essence, this research lights the path toward a future where the Metaverse and MMIR coalesce, creating a symbiotic relationship that enhances how we create, discover, and interact with multimedia content. It’s a journey not just of technological innovation, but of reimagining the very fabric of our digital experiences.

Let’s create an image to encapsulate this vibrant future: Picture a vast, sprawling virtual landscape, brimming with diverse multimedia content—3D models, videos, images, and interactive elements. Within this digital realm, avatars of researchers, educators, and creators move and interact, bringing to life a dynamic ecosystem where the exchange of multimedia content is fluid, intuitive, and boundlessly creative. This visualization, rooted in the essence of the research, will capture the imagination, inviting readers to envision the endless possibilities at the intersection of the Metaverse and MMIR.

Leave a Comment

Neue Horizonte im E-Commerce: Wie KI die Spielregeln verändert

 

KI ist im E-Commerce ein alter Hut. Recommendations, Prognosen, Kundensegmentierung – die Use Cases gibt es schon ewig. Die neuen AI-Technologien sind dennoch ein Game-Changer und verändern den Digital Commerce, da bin ich sicher. Es gibt aber Unternehmen, die sind besser vorbereitet als andere und so wird sich schnell zeigen, wer die Möglichkeiten als Vorteil einsetzen kann – und wer nicht.

Leave a Comment

256 Metaverse Records Dataset

The dataset was created to explore the use of meatverse virtual worlds and evlauate performance of feature exraction methods on Metaverse Recordings.

I’m thrilled to announce the availability of the 256-MetaverseRecords Dataset, a dataset for experiments with machine learning technology for metaverse recordings. This dataset represents a significant step forward in the exploration of the integration of virtual worlds in Multimedia Information Retrieval.

The dataset was created to explore the use of meatverse virtual worlds and evlauate performance of feature exraction methods on Metaverse Recordings. The dataset contains 256 video records of user sessions in virtual worlds, mostly based on screen recordings.

1 Comment

Award Winning Graphical Abstract and Paper Presentation at IEEE MetroXRAINE 2023

Early in October, I contributed to the IEEE MetroXRAINE 2023 in Milano Italy. With my work, I presented the approach for my PhD research. The paper is titled “Towards the Integration of Metaverse and Multimedia Information Retrieval”. In a nutshell, integrating the metaverse with Multimedia Information Retrieval (MMIR) can be grouped into at least two cases: metaverse used MMIR and MMIR processes metaverse produced multimedia. However, my research concentrates on the integration of metaverse-produced content in MMIR. But more on this in another post. In the submission, I sent a graphical abstract, and hey, it was awarded!

 

IEEE MetroXRAINE is an interdisciplinary conference on the fields of metrology, Extended Reality, Artificial Intelligence, and Neural Engineering. I tried an EEG-based brain interface for a game. It is an awesome experience, and I’m excited to see more of this technology in the future. But for sure, I need to concentrate more on my research!

Leave a Comment