<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Technology Archive</title>
	<atom:link href="https://www.patricksteinert.de/category/technology/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.patricksteinert.de/category/technology/</link>
	<description>... writes about the Internet of Things, Agile Software Development and Photography</description>
	<lastBuildDate>Tue, 16 Sep 2025 12:39:23 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.2</generator>

<image>
	<url>https://www.patricksteinert.de/wordpress/wp-content/uploads/2016/11/cropped-mylogo-32x32.png</url>
	<title>Technology Archive</title>
	<link>https://www.patricksteinert.de/category/technology/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Nachlese: Froscon 20 Vortrag &#8220;AI-First Softwareentwicklung &#8211; aber Open Source&#8221;</title>
		<link>https://www.patricksteinert.de/technology/nachlese-froscon-20-vortrag-ai-first-softwareentwicklung-aber-open-source/</link>
					<comments>https://www.patricksteinert.de/technology/nachlese-froscon-20-vortrag-ai-first-softwareentwicklung-aber-open-source/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Tue, 16 Sep 2025 12:38:45 +0000</pubDate>
				<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Software Development]]></category>
		<category><![CDATA[Technology]]></category>
		<category><![CDATA[ai]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2273</guid>

					<description><![CDATA[<p>Es ist schon wieder ein Monat her: die Froscon 20 &#8211; Neben meiner Rolle als Orga beim FrOSCon e.V. habe ich auch einen Vortrag mit dem Titel &#8220;AI-First Softwareentwicklung &#8211; aber Open Source&#8221; dort gehalten. Der Abstract: Entwickler*innen können von KI-Tools profitieren – aber wie klappt das jenseits von Big Tech? Der Vortrag gibt eine Übersicht zu den spannendsten freien KI-Lösungen und deren Einsatz in der Softwareentwicklung. KI hat die Entwicklungspraxis bereits verändert. KI kann Code generieren und wird auch produktiv in der Entwicklung eingesetzt. Doch meist sind es proprietäre Lösungen, die zum Einsatz kommen, z.B. Cursor oder Windsurf. Dabei gibt es mittlerweile eine Fülle an Open-Source-Angeboten, die es ermöglichen, auch ohne Datenabfluss in die Cloud produktiv zu sein. Im Talk wurden folgende Themen angesprochen: Die spannendsten Open-Source-KI-Modelle und ihre Communitys Integration in den Workflow: Editor-Plugins, Terminals, Chat-Assistenten Erfahrungen aus der Praxis: Vorteile, Herausforderungen, Tipps zur Einrichtung und Anwendung von&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/nachlese-froscon-20-vortrag-ai-first-softwareentwicklung-aber-open-source/">Nachlese: Froscon 20 Vortrag &#8220;AI-First Softwareentwicklung &#8211; aber Open Source&#8221;</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Es ist schon wieder ein Monat her: die Froscon 20 &#8211; Neben meiner Rolle als Orga beim <a class="WBvdVhxWwMLLImSXbppTgUxxEXvFdkPuWtQ " tabindex="0" href="https://www.linkedin.com/company/froscon/" target="_self" data-test-app-aware-link="">FrOSCon e.V.</a> habe ich auch einen Vortrag mit dem Titel &#8220;AI-First Softwareentwicklung &#8211; aber Open Source&#8221; dort gehalten.</p>
<p>Der Abstract:</p>
<p>Entwickler*innen können von KI-Tools profitieren – aber wie klappt das jenseits von Big Tech? Der Vortrag gibt eine Übersicht zu den spannendsten freien KI-Lösungen und deren Einsatz in der Softwareentwicklung.</p>
<p>KI hat die Entwicklungspraxis bereits verändert. KI kann Code generieren und wird auch produktiv in der Entwicklung eingesetzt. Doch meist sind es proprietäre Lösungen, die zum Einsatz kommen, z.B. Cursor oder Windsurf. Dabei gibt es mittlerweile eine Fülle an Open-Source-Angeboten, die es ermöglichen, auch ohne Datenabfluss in die Cloud produktiv zu sein.</p>
<p>Im Talk wurden folgende Themen angesprochen:</p>
<ul>
<li>Die spannendsten Open-Source-KI-Modelle und ihre Communitys</li>
<li>Integration in den Workflow: Editor-Plugins, Terminals, Chat-Assistenten</li>
<li>Erfahrungen aus der Praxis: Vorteile, Herausforderungen, Tipps zur Einrichtung und Anwendung von KI-Code Assistenten</li>
<li>Q&amp;A: Wo steht die Community, was fehlt noch? Perfekt für alle, die neugierig sind und ihre Unabhängigkeit als Entwickler*in bewahren wollen.</li>
</ul>
<p>Wie immer werden die Talks auf der <a href="https://froscon.org/">Froscon</a> aufgezeichnet und der Allgemeinheit zur Verfügung gestellt. Daher kannst du den Talk hier ansehen.</p>
<p>&nbsp;</p>
<p><iframe src="https://media.ccc.de/v/froscon2025-3325-ai-first_softwareentwicklung_-_aber_open_source/oembed" width="1024" height="576" frameborder="0" allowfullscreen="allowfullscreen"></iframe></p>
<p>Licensed to the public under http://creativecommons.org/licenses/by/4.0</p>
<p><span id="more-2273"></span></p>
<p>The post <a href="https://www.patricksteinert.de/technology/nachlese-froscon-20-vortrag-ai-first-softwareentwicklung-aber-open-source/">Nachlese: Froscon 20 Vortrag &#8220;AI-First Softwareentwicklung &#8211; aber Open Source&#8221;</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/nachlese-froscon-20-vortrag-ai-first-softwareentwicklung-aber-open-source/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>KI in der Softwareentwicklung: Zwischen Hype und echter Relevanz</title>
		<link>https://www.patricksteinert.de/technology/software-development/ki-in-der-softwareentwicklung-zwischen-hype-und-echter-relevanz/</link>
					<comments>https://www.patricksteinert.de/technology/software-development/ki-in-der-softwareentwicklung-zwischen-hype-und-echter-relevanz/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Thu, 29 May 2025 06:55:22 +0000</pubDate>
				<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Innovation]]></category>
		<category><![CDATA[Software Development]]></category>
		<category><![CDATA[ai]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2261</guid>

					<description><![CDATA[<p>Künstliche Intelligenz hat die Softwareentwicklung bereits in ihren Grundzügen verändert – und viele beobachten diesen Trend mit Skepsis. Ist das wirklich relevant? Oder nur der nächste Hype, der bald wieder verpufft? Tatsächlich ist KI mehr als ein nettes Gimmick: Erste Werkzeuge zeigen schon heute, wie sich einfache Anforderungen schnell, effizient und größtenteils zuverlässig umsetzen lassen. Klar müssen die Prompts von Entwicklern erstellt werden um die richtigen Ergebnisse zu erzielen. Aber oft braucht es nur noch rund 20 Prozent Ihrer Fähigkeiten. Was heißt das? Prozesse lassen sich beschleunigen, repetitive Aufgaben abgeben – und das Potenzial ist noch lange nicht ausgeschöpft. Der bekannte Denker Günther Dück sprach einst von der „Hybris-vs.-Hype“-Kurve: Zuerst wird eine neue Technologie überhyped, dann folgt das Tal der Ernüchterung. Genau dort, wo echte Produktivität entsteht, treten oft die Skeptiker auf den Plan: „Ich hab’s doch gesagt, das bringt alles nichts.“ Doch gerade an diesem Punkt zeigt sich, wer&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/software-development/ki-in-der-softwareentwicklung-zwischen-hype-und-echter-relevanz/">KI in der Softwareentwicklung: Zwischen Hype und echter Relevanz</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Künstliche Intelligenz hat die Softwareentwicklung bereits in ihren Grundzügen verändert – und viele beobachten diesen Trend mit Skepsis. Ist das wirklich relevant? Oder nur der nächste Hype, der bald wieder verpufft? Tatsächlich ist KI mehr als ein nettes Gimmick: Erste Werkzeuge zeigen schon heute, wie sich einfache Anforderungen schnell, effizient und größtenteils zuverlässig umsetzen lassen. Klar müssen die Prompts von Entwicklern erstellt werden um die richtigen Ergebnisse zu erzielen. Aber oft braucht es nur noch rund 20 Prozent Ihrer Fähigkeiten. Was heißt das? Prozesse lassen sich beschleunigen, repetitive Aufgaben abgeben – und das Potenzial ist noch lange nicht ausgeschöpft.</p>
<p>Der bekannte Denker Günther Dück sprach einst von der „Hybris-vs.-Hype“-Kurve: Zuerst wird eine neue Technologie überhyped, dann folgt das Tal der Ernüchterung. Genau dort, wo echte Produktivität entsteht, treten oft die Skeptiker auf den Plan: „Ich hab’s doch gesagt, das bringt alles nichts.“ Doch gerade an diesem Punkt zeigt sich, wer den nächsten Schritt geht – und wer zurückbleibt.</p>
<p>Denn auch wenn KI nicht perfekt ist, ist sie bereits hoch relevant. Perfektion ist keine Voraussetzung für Nutzen. Wer sie heute einsetzt, automatisiert Prozesse, beschleunigt Workflows und schafft Raum für Kreativität. Wer sie ignoriert, bleibt zurück.</p>
<p>Es geht nicht darum, KI zu verklären. Sie wird nicht jeden Menschen ersetzen und auch nicht jede Software automatisch besser machen. Aber sie ist ein mächtiges Werkzeug – und in der Softwareentwicklung in den richtigen Händen ein echter Produktivitäts-Booster. Der Unterschied liegt in der Herangehensweise: Wer technische Kompetenz mit strategischem Denken kombiniert, wer seine Rolle im Entwicklungsprozess anpasst und erkennt, welche Aufgaben sich sinnvoll an die Werkzeuge delegieren lassen, kann mit KI gezielt Softwareprojekte beschleunigen, sogar die Qualität erhöhen und neue Potenziale heben.</p>
<p>Ich erinnere mich gut an die We Are Developers Konferenz 2023 in Berlin. Damals präsentierte Thomas Dohmke, CEO von GitHub, GitHub Copilot. Mein erster Gedanke: &#8220;Ganz nett, für kleinere Funktionen sicher hilfreich.&#8221; Revolutionär? Wohl kaum. Doch mit der Zeit wurde klar: Das ist kein besserer Code-Vervollständiger, das ist eine neue Art zu arbeiten. Heute sehe ich, wie Tools selbstständig API-Debugging durchführen, Datenbankabfragen erzeugen oder Migrationsskripte vorbereiten – ohne menschliche Hilfe. Das ist mehr als Automatisierung. Das ist ein Paradigmenwechsel.</p>
<p>Unsere Rolle als Entwickler verändert sich. Wir geben der Maschine Aufgaben, denken in Zielen, nicht mehr in jedem einzelnen Befehl. KI wird zum verlässlichen Partner, der rund um die Uhr unterstützt. Wer das versteht, nutzt KI nicht als Gimmick, sondern als strategisches Werkzeug.</p>
<p>Wie also anfangen? Ganz einfach: Tools ausprobieren. Frei verfügbare Versionen testen oder auch mal 10, 20 Euro in einen Test-Monat investieren. Mit privaten Projekten starten, nicht selbst überlegen, sondern dem KI-Werkzeug die Aufgabe geben, Erfahrungen sammeln. Es muss nicht perfekt sein – entscheidend ist, zu lernen. Ebenso, wie ich ein neues Framework oder eine Sprache lerne.</p>
<p>Wie bleibt man auf dem laufenden? Es gibt eine Flut an Informationen. Aber niemand muss alles mitbekommen. Es reicht, ein paar gezielte Quellen zu verfolgen – sei es ein YouTube-Kanal, ein LinkedIn-Newsletter oder ein Blog. Schritt für Schritt entsteht so eine Routine, wie beim Lernen eines neuen Frameworks. Kleine Projekte, Tests, Erkenntnisse. Und plötzlich wird klar, wie viel möglich ist.</p>
<p>Das Neue ist da. Noch nicht perfekt, aber mächtig. Es wächst. Und es wird bleiben.</p>
<p><strong>Jetzt ist der Moment, sich damit auseinanderzusetzen. Jetzt ist die Zeit, zu lernen.</strong></p>
<p><strong>Denn wer heute beginnt, profitiert morgen. Wer aber weiter auf der Schreibmaschine tippt, während andere schon Word und KI nutzen, wird den Anschluss verlieren.</strong><span id="more-2261"></span></p>
<p>The post <a href="https://www.patricksteinert.de/technology/software-development/ki-in-der-softwareentwicklung-zwischen-hype-und-echter-relevanz/">KI in der Softwareentwicklung: Zwischen Hype und echter Relevanz</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/software-development/ki-in-der-softwareentwicklung-zwischen-hype-und-echter-relevanz/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Published: Artificial-Intelligence-Based Image Generation from Scene Graphs for Metaverse Recording Retrieval</title>
		<link>https://www.patricksteinert.de/technology/metaverse/published-artificial-intelligence-based-image-generation-from-scene-graphs-for-metaverse-recording-retrieval/</link>
					<comments>https://www.patricksteinert.de/technology/metaverse/published-artificial-intelligence-based-image-generation-from-scene-graphs-for-metaverse-recording-retrieval/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Fri, 25 Apr 2025 05:37:18 +0000</pubDate>
				<category><![CDATA[Metaverse]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[metaverse]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2257</guid>

					<description><![CDATA[<p>It all started with using AI Image Generation capabilities to (re)generate from minimal data. The recording of metaverse experiences supports various use cases in collaboration, VR training, and more. Such Metaverse Recordings can be created as multimedia and time series data during the 3D rendering process of the audio–video stream for the user. To search in a collection of recordings, Multimedia Information Retrieval methods can be used. Also, querying and accessing Metaverse Recordings based on the recorded time series data is possible. The presentation of human-perceivable results of time-series-based Metaverse Recordings is a challenge. This paper demonstrates an approach to generating human-perceivable media from time-series-based Metaverse Recordings with the help of generative artificial intelligence. Our findings show the general feasibility of the approach and outline the current limitations and remaining challenges. Read the full paper</p>
<p>The post <a href="https://www.patricksteinert.de/technology/metaverse/published-artificial-intelligence-based-image-generation-from-scene-graphs-for-metaverse-recording-retrieval/">Published: Artificial-Intelligence-Based Image Generation from Scene Graphs for Metaverse Recording Retrieval</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>It all started with using AI Image Generation capabilities to (re)generate from minimal data.</p>
<blockquote><p>The recording of metaverse experiences supports various use cases in collaboration, VR training, and more. Such Metaverse Recordings can be created as multimedia and time series data during the 3D rendering process of the audio–video stream for the user. To search in a collection of recordings, Multimedia Information Retrieval methods can be used. Also, querying and accessing Metaverse Recordings based on the recorded time series data is possible. The presentation of human-perceivable results of time-series-based Metaverse Recordings is a challenge. This paper demonstrates an approach to generating human-perceivable media from time-series-based Metaverse Recordings with the help of generative artificial intelligence. Our findings show the general feasibility of the approach and outline the current limitations and remaining challenges.</p></blockquote>
<p><a href="https://www.mdpi.com/2079-9292/14/7/1427">Read the full paper</a></p>
<p>The post <a href="https://www.patricksteinert.de/technology/metaverse/published-artificial-intelligence-based-image-generation-from-scene-graphs-for-metaverse-recording-retrieval/">Published: Artificial-Intelligence-Based Image Generation from Scene Graphs for Metaverse Recording Retrieval</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/metaverse/published-artificial-intelligence-based-image-generation-from-scene-graphs-for-metaverse-recording-retrieval/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Generative KI in der Softwareentwicklung: Fortschritte und Grenzen</title>
		<link>https://www.patricksteinert.de/technology/generative-ki-in-der-softwareentwicklung-fortschritte-und-grenzen/</link>
					<comments>https://www.patricksteinert.de/technology/generative-ki-in-der-softwareentwicklung-fortschritte-und-grenzen/#comments</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Sun, 22 Dec 2024 19:21:49 +0000</pubDate>
				<category><![CDATA[Technology]]></category>
		<category><![CDATA[GenAI]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2227</guid>

					<description><![CDATA[<p>Ende 2024 stellt sich die Frage wie die Generative KI in der Softwareentwicklung vorangeschritten ist. Die Softwareentwicklung erlebt derzeit einen tiefgreifenden Wandel, der durch den Einsatz generativer KI (GenAI)-Tools vorangetrieben wird. Von automatisierten Code-Vervollständigungen bis hin zur vollständigen Erstellung von Prototypen bieten diese Tools neuartige Möglichkeiten, die Effizienz, Produktivität und sogar die Kreativität von Entwicklern zu steigern. Doch wie weit sind wir wirklich gekommen, und welche Bereiche der Softwareentwicklung werden bereits heute durch GenAI beeinflusst? In diesem Artikel werfen wir einen umfassenden Blick auf den aktuellen Stand der Dinge, betrachten praxisnahe Anwendungsfälle, beleuchten bestehende Herausforderungen und wagen einen Ausblick auf die Zukunft. Generative KI in der Softwareentwicklung: Die 5 Level des autonomen Programmierens Ein vielversprechendes Konzept zur Klassifikation des Fortschritts bei GenAI-Tools ist das der &#8220;5 Level of Autonomous Coding&#8221; – inspiriert von den Stufen des autonomen Fahrens. Diese Ebenen beschreiben den Grad der Automatisierung in der Softwareentwicklung und helfen&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/generative-ki-in-der-softwareentwicklung-fortschritte-und-grenzen/">Generative KI in der Softwareentwicklung: Fortschritte und Grenzen</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-pm-slice="1 1 []">Ende 2024 stellt sich die Frage wie die Generative KI in der Softwareentwicklung vorangeschritten ist. Die Softwareentwicklung erlebt derzeit einen tiefgreifenden Wandel, der durch den Einsatz generativer KI (GenAI)-Tools vorangetrieben wird. Von automatisierten Code-Vervollständigungen bis hin zur vollständigen Erstellung von Prototypen bieten diese Tools neuartige Möglichkeiten, die Effizienz, Produktivität und sogar die Kreativität von Entwicklern zu steigern. Doch wie weit sind wir wirklich gekommen, und welche Bereiche der Softwareentwicklung werden bereits heute durch GenAI beeinflusst? In diesem Artikel werfen wir einen umfassenden Blick auf den aktuellen Stand der Dinge, betrachten praxisnahe Anwendungsfälle, beleuchten bestehende Herausforderungen und wagen einen Ausblick auf die Zukunft.</p>
<p data-pm-slice="1 1 []"><span id="more-2227"></span></p>
<h2 data-pm-slice="1 1 []">Generative KI in der Softwareentwicklung:</h2>
<h2>Die 5 Level des autonomen Programmierens</h2>
<p>Ein vielversprechendes Konzept zur Klassifikation des Fortschritts bei GenAI-Tools ist das der &#8220;<a href="https://www.patricksteinert.de/technology/five-levels-of-autonomous-coding/">5 Level of Autonomous Coding</a>&#8221; – inspiriert von den Stufen des autonomen Fahrens. Diese Ebenen beschreiben den Grad der Automatisierung in der Softwareentwicklung und helfen dabei, die unterschiedlichen Rollen und Verantwortlichkeiten zwischen Mensch und KI zu definieren.</p>
<p>In der <strong>ersten Stufe</strong>, dem unterstützten Programmieren, nutzen Entwickler automatisch generierte Code-Snippets oder Vorschläge, die sie manuell in ihren Workflow integrieren. Die Verantwortung für die Validierung und Funktionalität des Codes bleibt dabei vollständig beim Menschen. Diese Tools agieren vor allem als Unterstützung für repetitive oder zeitraubende Aufgaben, wobei der kreative und strategische Teil weiterhin von Entwicklern übernommen wird. Die <strong>zweite Stufe</strong>, das teilweise automatisierte Programmieren, geht einen Schritt weiter. Hier passt die KI Code basierend auf den vom Entwickler spezifizierten Anforderungen an. Dennoch obliegt die abschließende Kontrolle und Validierung weiterhin dem Entwickler. Diese Automatisierungsebene hat sich insbesondere in der Optimierung bestehender Codestrukturen und in der Testgenerierung als hilfreich erwiesen.</p>
<p>In der <strong>dritten Stufe</strong>, dem hochgradig automatisierten Programmieren, übernimmt die KI komplexere Aufgaben wie die Generierung von Testcode, das Umstrukturieren von Code für bessere Wartbarkeit oder das eigenständige Lösen von Fehlern. Entwickler greifen in der Regel nur noch bei Ausnahmefällen ein, was die Produktivität erheblich steigert. Ein konkretes Beispiel wäre die automatische Optimierung von Software für Performance-Verbesserungen in einer komplexen Backend-Infrastruktur. Die <strong>vierte Stufe</strong>, das vollständig automatisierte Programmieren, verlagert die Rolle der Entwickler mehr in Richtung von Produktverantwortlichen. Die KI ist in der Lage, Features zu erstellen, Fehler autonom zu beheben und den gesamten Lebenszyklus des Codes bis zur Freigabe zu verwalten. Die Verantwortung für die Integrität des Codes wird in diesem Szenario zunehmend vom KI-Anbieter übernommen, was jedoch auch rechtliche und ethische Fragen aufwirft.</p>
<p><strong>Die fünfte</strong> und höchste <strong>Stufe</strong>, das autonome Programmieren, stellt die ultimative Automatisierung dar. Die KI kann eigenständig neue Features implementieren, bestehende Abhängigkeiten aktualisieren und Fehler beheben. Sie verwaltet den gesamten Lebenszyklus der Software und macht menschliche Intervention nahezu überflüssig. Diese Entwicklung wirft spannende Fragen auf, etwa ob traditionelle Programmierung in Zukunft durch intuitivere und präzisere Spezifikationssprachen ersetzt werden könnte. Eine solche Perspektive würde die Art und Weise, wie Software erstellt wird, grundlegend verändern.</p>
<h2>Neue Projekte mit GenAI</h2>
<p>Eine der herausragenden Stärken aktueller GenAI-Tools liegt in der schnellen Erstellung neuer Softwareprojekte. Entwickler können mit minimalen Spezifikationen Tools wie <a href="https://github.com/features/copilot">GitHub Copilot</a> nutzen, um grundlegende Code-Strukturen zu generieren und komplexe Projekt-Setups automatisiert bereitstellen zu lassen. Beispielsweise kann ein einfaches Java-Projekt mit Spring Boot erstellt werden, das eine API bereitstellt, oder eine React-Komponente, die Benutzerdaten visualisiert. Dieser Prozess, der früher viel Zeit in Anspruch nahm, kann heute innerhalb weniger Minuten oder Stunden abgeschlossen werden. Dadurch erhalten Entwickler einen ersten funktionsfähigen Prototypen, den sie anschließend erweitern und verfeinern können. Agenten-basierte IDEs wie Windsurf gehen hier noch einen Schritt weiter, indem sie umfangreiche Projekte erstellen und diese nach ersten Änderungen erweitern können. Diese Plattformen ermöglichen es Entwicklern, iterative Anpassungen durchzuführen und gleichzeitig von der Effizienz und Skalierbarkeit zu profitieren, die diese intelligenten Systeme bieten.</p>
<p data-pm-slice="1 1 []">Level 1 ist erreicht, aber Werkzeuge wie <a href="https://www.cursor.com/">Cursor</a> machen hier mehr als einfache Code-Vervollständigung. Diese Werkzeuge können bereits komplexere Änderungen vornehmen. Agenten-basierte IDEs wie <a href="https://codeium.com/windsurf">Windsurf</a> oder <a href="https://aide.dev/">AIDE</a> können sogar schon Änderungen in UI, API und Datenbankschema in einem Zug auf Basis eines einfachen Prompts erf</p>
<p data-pm-slice="1 1 []">olgreich umsetzen. Das ist sehr nah an Level 3 und zeigt, wie schnell sich diese Technologien weiterentwickeln.</p>
<p><img fetchpriority="high" decoding="async" class="aligncenter size-large wp-image-2232" src="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/12/Bildschirmfoto-2024-12-22-um-19.30.47-256x620.png" alt="Screenshot der Aktionen von Windsurf" width="256" height="620" srcset="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/12/Bildschirmfoto-2024-12-22-um-19.30.47-256x620.png 256w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/12/Bildschirmfoto-2024-12-22-um-19.30.47-124x300.png 124w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/12/Bildschirmfoto-2024-12-22-um-19.30.47-768x1860.png 768w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/12/Bildschirmfoto-2024-12-22-um-19.30.47-634x1536.png 634w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/12/Bildschirmfoto-2024-12-22-um-19.30.47.png 840w" sizes="(max-width: 256px) 100vw, 256px" /></p>
<h2>Anpassungen bestehender Software</h2>
<p>Die Anpassung bestehender Software ist ein weiteres zentrales Anwendungsfeld für GenAI. Dies umfasst die Hinzufügung neuer Funktionen, die Aktualisierung bestehender Technologien oder sogar umfassende Legacy-Migrationen. Beispielsweise kann die KI helfen, eine neue Funktion zu implementieren, indem sie notwendige Änderungen an Datenbank-Schemas, APIs und Frontend-Komponenten vorschlägt und teilweise auch automatisiert umsetzt. Dennoch stößt die Technologie an ihre Grenzen, insbesondere wenn es um die Integration neuer oder unbekannter Bibliotheken geht. In solchen Fällen ist weiterhin menschliche Expertise gefragt.</p>
<p>Bei Technologie-Updates und Legacy-Migrationen zeigt sich ein ähnliches Bild. Die KI ist in der Lage, veraltete Sprachkonstrukte oder Bibliotheken zu erkennen und zu aktualisieren. Dies beschleunigt den Prozess und reduziert die Wahrscheinlichkeit von Fehlern. Bei komplexen Migrationen, die umfangreiche Abhängigkeiten oder spezifisches Fachwissen erfordern, bleibt jedoch oft die Unterstützung durch Entwickler notwendig. Besonders herausfordernd sind Projekte, bei denen das Wissen über die bestehende Software nicht mehr vorhanden ist. Hier kann die KI zwar unterstützen, indem sie Code analysiert und Vorschläge generiert, die Hauptarbeit liegt jedoch in der Analyse und Validierung durch den Menschen. Solche Szenarien verdeutlichen, dass die Zusammenarbeit zwischen Mensch und KI weiterhin essenziell ist.</p>
<h2>Testautomatisierung</h2>
<p>Ein weiterer Bereich, in dem GenAI bedeutende Fortschritte gemacht hat, ist die Automatisierung von Softwaretests. Die KI kann Unit-Tests und Integrations-Tests generieren, was die Abdeckung typischer Fehlerquellen erheblich verbessert. Dabei werden oft Bereiche abgedeckt, die vorher aufgrund von Zeit- oder Ressourcenmangel ungetestet blieben. Allerdings hängt die Qualität der Tests stark von der Qualität der Testbeschreibung ab. Vage oder unklare Anweisungen erschweren es der KI, präzise und effektive Tests zu erstellen.</p>
<p>Auch bei manuellen Tests kann die KI teilweise eingesetzt werden, um diese in automatisierte Tests zu überführen. Dabei bleibt jedoch die Herausforderung bestehen, dass die Mapping-Qualität zwischen Testbeschreibungen und der zugrunde liegenden Software oft ein Bottleneck darstellt. Dennoch kann GenAI helfen, die Qualität der Tests kontinuierlich zu verbessern, indem es Lücken identifiziert und Vorschläge für ergänzende Tests macht. Trotz dieser Einschränkungen hat die KI das Potenzial, die Testautomatisierung erheblich zu beschleunigen und damit die Softwarequalität nachhaltig zu verbessern. Besonders in großen Projekten mit umfangreichen Codebasen kann diese Beschleunigung entscheidend sein, um Entwicklungszyklen zu verkürzen und Kosten zu senken.</p>
<h2 data-pm-slice="1 1 []">Fazit: Generative KI in der Softwareentwicklung heute</h2>
<p>Der aktuelle Stand der GenAI-Tools zeigt, dass wir uns überwiegend auf Level 1 und Level 2 des autonomen Programmierens befinden. Fortschritte in den Bereichen Testautomatisierung und Anpassung bestehender Software weisen jedoch auf das Potenzial für Level 3 hin. Vollständige Autonomie, wie sie in Level 4 und 5 beschrieben wird, bleibt vorerst eine Vision der Zukunft. Dennoch ist der Fortschritt im letzten Jahr beeindruckend und zeigt deutlich, wie GenAI die Softwareentwicklung transformieren kann.</p>
<p>In der Zwischenzeit ist es entscheidend, die menschliche Kreativität und Intuition mit den Stärken der KI zu kombinieren. Nur so lässt sich sicherstellen, dass diese Tools nicht nur Effizienz steigern, sondern auch die Qualität und Innovationskraft der Softwareentwicklung langfristig verbessern. Die Diskussion, ob Programmierer künftig eher Überwacher als aktive Coder sein werden, ist damit eröffnet. Es bleibt spannend zu beobachten, wie sich dieses Zusammenspiel weiterentwickeln wird und welche neuen Möglichkeiten sich daraus ergeben.</p>
<p>The post <a href="https://www.patricksteinert.de/technology/generative-ki-in-der-softwareentwicklung-fortschritte-und-grenzen/">Generative KI in der Softwareentwicklung: Fortschritte und Grenzen</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/generative-ki-in-der-softwareentwicklung-fortschritte-und-grenzen/feed/</wfw:commentRss>
			<slash:comments>2</slash:comments>
		
		
			</item>
		<item>
		<title>Five Levels of Autonomous Coding</title>
		<link>https://www.patricksteinert.de/technology/five-levels-of-autonomous-coding/</link>
					<comments>https://www.patricksteinert.de/technology/five-levels-of-autonomous-coding/#comments</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Tue, 11 Jun 2024 10:01:27 +0000</pubDate>
				<category><![CDATA[Software Development]]></category>
		<category><![CDATA[Technology]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[Autonomous Coding]]></category>
		<category><![CDATA[Code-Assistants]]></category>
		<category><![CDATA[GenAI]]></category>
		<category><![CDATA[machine learning]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2147</guid>

					<description><![CDATA[<p>The Levels of Autonomous Coding, or Autonomous Programming, describe the degree of automation of programming and software engineering tools. While AI tools advance more and more, the ultimate goal of a system that develops, deploys, and maintains software fully automatically is not achieved &#8211; yet. In the lack of a categorization, the following five levels provide classes of programming tools. A few weeks ago, we had a brainstorming session to challenge the statement: &#8220;In 2026, simple coding of business software by a human is unprofitable.&#8221; It quickly dawned on me that for this prediction to hold, we would need fully autonomous coding or at least a high degree of automation. This concept immediately reminded me of the various levels of autonomous driving—Eureka! Of course, I wasn&#8217;t the first to make this connection; someone on the internet had brilliantly mapped these levels from driving to coding. Let’s dive into these levels&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/five-levels-of-autonomous-coding/">Five Levels of Autonomous Coding</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div data-pm-slice="1 1 []" data-en-clipboard="true">The Levels of Autonomous Coding, or Autonomous Programming, describe the degree of automation of programming and software engineering tools. While AI tools advance more and more, the ultimate goal of a system that develops, deploys, and maintains software fully automatically is not achieved &#8211; yet. In the lack of a categorization, the following five levels provide classes of programming tools.</div>
<div data-pm-slice="1 1 []" data-en-clipboard="true"></div>
<div data-pm-slice="1 1 []" data-en-clipboard="true">A few weeks ago, <a href="https://www.qvest.com/de/digital-product-development/technology-consulting">we</a> had a brainstorming session to challenge the statement: &#8220;In 2026, simple coding of business software by a human is unprofitable.&#8221; It quickly dawned on me that for this prediction to hold, we would need fully autonomous coding or at least a high degree of automation. This concept immediately reminded me of the various levels of <a href="https://www.sae.org/blog/sae-j3016-update">autonomous driving</a>—Eureka! Of course, I wasn&#8217;t the first to make this connection; <a href="https://www.stride.build/thought-leadership/the-6-levels-of-codegen-automation">someone</a> <a href="https://www.codium.ai/blog/the-6-levels-of-autonomous-unit-testing-explained/">on the internet</a> had brilliantly mapped these levels from driving to coding.</div>
<div></div>
<div>Let’s dive into these levels to understand better how they might apply to the future of coding:</div>
<div></div>
<h3>Level 1: Assisted Coding</h3>
<ul>
<li>
<div>What Happens: Coders handle the bulk of the work but can request autogenerated code snippets to copy-paste or use as code completion.</div>
</li>
<li>
<div>Responsibility: Coders must validate and are ultimately responsible for all code, ensuring accuracy and functionality.</div>
</li>
</ul>
<h3>Level 2: Partly Automated Coding</h3>
<ul>
<li>
<div>What Happens: Coders primarily use the IDE to specify features, and the AI then modifies the code accordingly.</div>
</li>
<li>
<div>Responsibility: While the AI handles some coding, coders must validate all changes and remain responsible for the final output.</div>
</li>
</ul>
<h3>Level 3: Highly Automated Coding</h3>
<ul>
<li>
<div>What Happens: Coders use a more advanced interface, not limited to traditional IDEs, to specify features. AI can automatically handle specific tasks like fulfilling software tests, generating test code, reorganizing code for better maintainability, creating new user interface features, and proposing and testing solutions to errors.</div>
</li>
<li>
<div>Responsibility: Coders intervene in exceptional cases or when errors arise that the AI cannot resolve.</div>
</li>
</ul>
<h3>Level 4: Fully Automated Coding</h3>
<ul>
<li>
<div>What Happens: The developer&#8217;s role shifts more towards a Product Owner&#8217;s. AI can code features based on detailed specifications and autonomously handle errors—making adjustments, testing, and waiting for developers to review and commit changes.</div>
</li>
<li>
<div>Responsibility: The AI provider assumes a significant portion of the responsibility, especially in maintaining the integrity and functionality of the code.</div>
</li>
</ul>
<h3>Level 5: Autonomous Coding</h3>
<ul>
<li>
<div>What Happens: AI handles everything from coding new features based on persistent specifications to upgrading dependencies and fixing errors. It manages the full lifecycle of the code, including deployment.</div>
</li>
<li>
<div>Responsibility: AI becomes largely self-sufficient, significantly reducing the need for human intervention.</div>
</li>
</ul>
<div></div>
<div>Progress toward these levels raises intriguing questions about the future role of human programmers. Will the specifications themselves not be in traditional code? Possibly. They may be in a more human-understandable form that can be translated directly into machine code, with the compiler doing most of the verifying of the machine code. Unlike human language, which can be ambiguous and harder for compilers to validate, this system promises greater precision and efficiency.</div>
<div></div>
<div>As we look to a future where coding is increasingly automated, it&#8217;s fascinating to consider how these changes will redefine the landscape of software development. It&#8217;s not just about the technology; it&#8217;s about how we adapt to these tools to ensure that they enhance our capabilities without displacing the creative and critical elements that define good software development. What do you think? Are we heading toward a world where coders are more supervisors and reviewers than active coders? The conversation is just beginning, and your insights are more valuable than ever!</div>
<div></div>
<p><span id="more-2147"></span></p>
<p>The post <a href="https://www.patricksteinert.de/technology/five-levels-of-autonomous-coding/">Five Levels of Autonomous Coding</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/five-levels-of-autonomous-coding/feed/</wfw:commentRss>
			<slash:comments>4</slash:comments>
		
		
			</item>
		<item>
		<title>My First Year as a part-time PhD Student</title>
		<link>https://www.patricksteinert.de/technology/my-first-year-as-a-part-time-phd-student/</link>
					<comments>https://www.patricksteinert.de/technology/my-first-year-as-a-part-time-phd-student/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Thu, 02 May 2024 09:23:44 +0000</pubDate>
				<category><![CDATA[Technology]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2060</guid>

					<description><![CDATA[<p>&#8230; A Journey into Multimedia Information Retrieval and the Metaverse Hello everyone! I can&#8217;t believe it&#8217;s already been a year since I embarked on my PhD journey. Time truly flies when you&#8217;re engrossed in research, and what a year it&#8217;s been! Today, I want to share with you some of the highlights, challenges, and learnings from my first year as a PhD student, focusing on my research project in Multimedia Information Retrieval (MMIR) and its intersection with the Metaverse. The Research Project: MMIR Meets the Metaverse When I started my PhD, I was fascinated by the untapped potential of Multimedia Information Retrieval. MMIR is all about searching and retrieving multimedia data like images, videos, and audio. But I wanted to take it a step further. I was intrigued by the burgeoning Metaverse—a collective virtual shared space created by the convergence of virtually enhanced physical reality and interactive digital spaces. The&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/my-first-year-as-a-part-time-phd-student/">My First Year as a part-time PhD Student</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>&#8230; A Journey into Multimedia Information Retrieval and the Metaverse</h2>
<p>Hello everyone! I can&#8217;t believe it&#8217;s already been a year since I embarked on my <a href="https://www.patricksteinert.de/technology/integration-of-metaverse-and-multimedia-information-retrieval/">PhD journey</a>. Time truly flies when you&#8217;re engrossed in research, and what a year it&#8217;s been! Today, I want to share with you some of the highlights, challenges, and learnings from my first year as a PhD student, focusing on my research project in Multimedia Information Retrieval (MMIR) and its intersection with the Metaverse.</p>
<h2>The Research Project: MMIR Meets the Metaverse</h2>
<p>When I started my PhD, I was fascinated by the untapped potential of Multimedia Information Retrieval. MMIR is all about searching and retrieving multimedia data like images, videos, and audio. But I wanted to take it a step further. I was intrigued by the burgeoning <a href="https://www.patricksteinert.de/technology/metaverse/metaverse-2023-expectation-vs-reality/">Metaverse</a>—a collective virtual shared space created by the convergence of virtually enhanced physical reality and interactive digital spaces.</p>
<p>The question was, how could MMIR contribute to the development and optimization of the Metaverse? The answer lay in identifying synergies between the two.</p>
<h3>Synergies Between MMIR and the Metaverse</h3>
<ol>
<li><strong>User Experience</strong>: MMIR can significantly improve the user experience in the Metaverse by making it easier to find relevant multimedia content, be it virtual objects, scenes, or characters.</li>
<li><strong>Content Management</strong>: As the Metaverse grows, so does its content. MMIR can help in effectively managing this explosion of multimedia data.</li>
<li><strong>Interactivity</strong>: MMIR can make the Metaverse more interactive by allowing users to search and manipulate multimedia elements in real-time.</li>
</ol>
<h2>Research Use Cases and Technologies</h2>
<p>During the first year, I delved into various use cases where MMIR could be applied in the <a href="https://www.patricksteinert.de/technology/metaverse/a-primer-on-the-metaverse/">Metaverse</a>:</p>
<ol>
<li><strong>Virtual Shopping</strong>: Imagine being able to find the perfect virtual outfit or furniture through an advanced MMIR system.</li>
<li><strong>Education</strong>: Educational materials could be more easily sorted, retrieved, and presented in a virtual classroom setting.</li>
<li><strong>Entertainment</strong>: Think about a virtual concert where you can easily search for your favorite songs or moments.</li>
</ol>
<p>In terms of technologies, I explored machine learning algorithms, cloud computing, and even edge computing to make MMIR more efficient and scalable.</p>
<h2>Evaluating Feature Extraction Techniques</h2>
<p>A significant part of my first year was spent on evaluating different feature extraction techniques for multimedia data. Feature extraction is crucial for any MMIR system as it helps the system understand <a href="https://www.patricksteinert.de/technology/metaverse/is-metaverse-multimedia/">what the multimedia content is all about</a>. I experimented with various techniques like SIFT for images and MFCC for audio, and I&#8217;m currently working on developing a hybrid model that can work efficiently with different types of multimedia data.</p>
<h2>Composite Multimedia: The Next Frontier</h2>
<p>One of the most exciting aspects of my research has been working on composite multimedia, particularly integrating video data with sensor data. This has applications in augmented reality experiences within the Metaverse, where sensor data can provide additional context to what you&#8217;re seeing and hearing.</p>
<h2>Wrapping Up</h2>
<p>The first year of my PhD has been a rollercoaster of learning, experimentation, and occasional bouts of frustration (it&#8217;s all part of the process, right?). But most importantly, it&#8217;s been incredibly rewarding. I&#8217;m excited about the possibilities that the intersection of MMIR and the Metaverse holds, and I can&#8217;t wait to dive deeper into this research in the coming years.</p>
<p>Thank you for joining me on this journey, and stay tuned for more updates!</p>
<p>The post <a href="https://www.patricksteinert.de/technology/my-first-year-as-a-part-time-phd-student/">My First Year as a part-time PhD Student</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/my-first-year-as-a-part-time-phd-student/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Integration of Metaverse and Multimedia Information Retrieval</title>
		<link>https://www.patricksteinert.de/technology/metaverse/integration-of-metaverse-and-multimedia-information-retrieval/</link>
					<comments>https://www.patricksteinert.de/technology/metaverse/integration-of-metaverse-and-multimedia-information-retrieval/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Tue, 02 Apr 2024 09:32:45 +0000</pubDate>
				<category><![CDATA[Metaverse]]></category>
		<category><![CDATA[Technology]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2135</guid>

					<description><![CDATA[<p>Diving into the vibrant intersection of the Metaverse and Multimedia Information Retrieval (MMIR), we uncover a fascinating journey that&#8217;s shaping the future of Metaverse integration with MMIR. Imagine stepping into a universe where the boundaries between physical and digital realities blur, creating an immersive world teeming with multimedia content. This is the Metaverse, a collective virtual space, built on the pillars of augmented and virtual reality technologies. At the heart of integrating these worlds lies the challenge of efficiently indexing, retrieving, and making sense of a deluge of multimedia content—ranging from images, videos, to 3D models and beyond. Enter the realm of Multimedia Information Retrieval (MMIR), a sophisticated field dedicated to the art and science of finding and organizing multimedia data. The research explored here, as my Ph.D. project, ventures into this nascent domain, proposing innovative frameworks for bridging the Metaverse with MMIR. Their work unveils two primary narratives: one,&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/metaverse/integration-of-metaverse-and-multimedia-information-retrieval/">Integration of Metaverse and Multimedia Information Retrieval</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Diving into the vibrant intersection of the <a href="https://en.wikipedia.org/wiki/Multimedia_information_retrieval">Metaverse and Multimedia Information Retrieval (MMIR)</a>, we uncover a fascinating journey that&#8217;s shaping the future of Metaverse integration with MMIR. Imagine stepping into a universe where the boundaries between physical and digital realities blur, creating an immersive world teeming with multimedia content. This is the Metaverse, a collective virtual space, built on the pillars of augmented and virtual reality technologies.</p>
<p>At the heart of integrating these worlds lies the challenge of efficiently indexing, retrieving, and making sense of a deluge of multimedia content—ranging from images, videos, to 3D models and beyond. Enter the realm of Multimedia Information Retrieval (MMIR), a sophisticated field dedicated to the art and science of finding and organizing multimedia data.</p>
<p>The research explored here, as my Ph.D. project, ventures into this nascent domain, proposing innovative frameworks for bridging the Metaverse with MMIR. Their work unveils two primary narratives: one, how we can leverage MMIR to navigate the vast expanses of the Metaverse, and two, how the Metaverse itself can generate new forms of multimedia for MMIR to organize and retrieve.</p>
<p><img decoding="async" class="aligncenter size-large wp-image-2136" src="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/04/cs-research-area5-620x310.png" alt="" width="620" height="310" srcset="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/04/cs-research-area5-620x310.png 620w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/04/cs-research-area5-300x150.png 300w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/04/cs-research-area5-768x384.png 768w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/04/cs-research-area5-1536x769.png 1536w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/04/cs-research-area5.png 1658w" sizes="(max-width: 620px) 100vw, 620px" /></p>
<p>In the first scenario, imagine you&#8217;re an educator in the Metaverse, looking to build an interactive, virtual classroom. Through the integration of MMIR, you can seamlessly pull educational content—be it historical artifacts in 3D, immersive documentaries, or interactive simulations—right into your virtual space, enriching the learning experience like never before.</p>
<p>The second scenario flips the perspective, showcasing the Metaverse as a prolific generator of multimedia content. From virtual tours and events to user-generated content and beyond, every action and interaction within the Metaverse creates data ripe for MMIR&#8217;s picking. This opens up a new frontier for content creators and researchers alike, offering fresh avenues for creativity, analytics, and even virtual heritage preservation.</p>
<p>Navigating these possibilities, <a href="https://www.patricksteinert.de/technology/award-winning-graphical-abstract-and-paper-presentation-at-ieee-metroxraine-2023/">the research present sophisticated models and architectures</a>, such as the <em>Generic MMIR Integration Architecture for Metaverse Playout (GMIA4MP)</em> and the <em>Process Framework for Metaverse Recordings (PFMR).</em> These frameworks lay the groundwork for seamless interaction between the Metaverse and MMIR systems, ensuring content is not only accessible but meaningful and contextual.</p>
<p>To bring these concepts to life, let&#8217;s visualize a diagram illustrating the flow from multimedia creation in the Metaverse, through its processing by MMIR systems, to its ultimate retrieval and utilization by end-users. This visualization underscores the cyclical nature of creation and discovery in this integrated ecosystem.</p>
<p>In essence, this research lights the path toward a future where the Metaverse and MMIR coalesce, creating a symbiotic relationship that enhances how we create, discover, and interact with multimedia content. It&#8217;s a journey not just of technological innovation, but of reimagining the very fabric of our digital experiences.</p>
<p>Let&#8217;s create an image to encapsulate this vibrant future: Picture a vast, sprawling virtual landscape, brimming with diverse multimedia content—3D models, videos, images, and interactive elements. Within this digital realm, avatars of researchers, educators, and creators move and interact, bringing to life a dynamic ecosystem where the exchange of multimedia content is fluid, intuitive, and boundlessly creative. This visualization, rooted in the essence of the research, will capture the imagination, inviting readers to envision the endless possibilities at the intersection of the Metaverse and MMIR.<span id="more-2135"></span></p>
<p>The post <a href="https://www.patricksteinert.de/technology/metaverse/integration-of-metaverse-and-multimedia-information-retrieval/">Integration of Metaverse and Multimedia Information Retrieval</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/metaverse/integration-of-metaverse-and-multimedia-information-retrieval/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Neue Horizonte im E-Commerce:   Wie KI die Spielregeln verändert</title>
		<link>https://www.patricksteinert.de/technology/neue-horizonte-im-e-commerce-wie-ki-die-spielregeln-verandert/</link>
					<comments>https://www.patricksteinert.de/technology/neue-horizonte-im-e-commerce-wie-ki-die-spielregeln-verandert/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Fri, 15 Mar 2024 07:29:25 +0000</pubDate>
				<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Technology]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[ecommerce]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2127</guid>

					<description><![CDATA[<p>&#160; KI ist im E-Commerce ein alter Hut. Recommendations, Prognosen, Kundensegmentierung &#8211; die Use Cases gibt es schon ewig. Die neuen AI-Technologien sind dennoch ein Game-Changer und verändern den Digital Commerce, da bin ich sicher. Es gibt aber Unternehmen, die sind besser vorbereitet als andere und so wird sich schnell zeigen, wer die Möglichkeiten als Vorteil einsetzen kann &#8211; und wer nicht.</p>
<p>The post <a href="https://www.patricksteinert.de/technology/neue-horizonte-im-e-commerce-wie-ki-die-spielregeln-verandert/">Neue Horizonte im E-Commerce:   Wie KI die Spielregeln verändert</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="aligncenter wp-image-2128 size-large" src="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-1-620x620.png" alt="" width="620" height="620" srcset="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-1-620x620.png 620w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-1-300x300.png 300w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-1-150x150.png 150w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-1-768x768.png 768w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-1.png 1080w" sizes="auto, (max-width: 620px) 100vw, 620px" /></p>
<p>&nbsp;</p>
<p>KI ist im E-Commerce ein alter Hut. Recommendations, Prognosen, Kundensegmentierung &#8211; die Use Cases gibt es schon ewig. Die neuen AI-Technologien sind dennoch ein Game-Changer und verändern den Digital Commerce, da bin ich sicher. Es gibt aber Unternehmen, die sind besser vorbereitet als andere und so wird sich schnell zeigen, wer die Möglichkeiten als Vorteil einsetzen kann &#8211; und wer nicht.</p>
<p><span id="more-2127"></span></p>
<p>The post <a href="https://www.patricksteinert.de/technology/neue-horizonte-im-e-commerce-wie-ki-die-spielregeln-verandert/">Neue Horizonte im E-Commerce:   Wie KI die Spielregeln verändert</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/neue-horizonte-im-e-commerce-wie-ki-die-spielregeln-verandert/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>KI in der Digital Multimedia Supply Chain</title>
		<link>https://www.patricksteinert.de/technology/data-sience/ki-in-der-digital-multimedia-supply-chain/</link>
					<comments>https://www.patricksteinert.de/technology/data-sience/ki-in-der-digital-multimedia-supply-chain/#respond</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Sun, 10 Mar 2024 20:59:18 +0000</pubDate>
				<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Technology]]></category>
		<category><![CDATA[ai]]></category>
		<category><![CDATA[digital-media-supply-chain]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2123</guid>

					<description><![CDATA[<p>Das Thema KI ist ja jetzt nicht neu und in der Medienwelt gibt es ja viel KI Potential: Medienanalyse, Recommendations, Predictions&#8230; dennoch sind jetzt viele neugierig auf die Möglichkeiten insbesondere zur Automatisierung von Prozessen. Und da helfen die neuen KI Modelle tatsächlich besser, weil die Qualität einfach besser ist!</p>
<p>The post <a href="https://www.patricksteinert.de/technology/data-sience/ki-in-der-digital-multimedia-supply-chain/">KI in der Digital Multimedia Supply Chain</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="aligncenter size-large wp-image-2124" src="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-620x620.png" alt="" width="620" height="620" srcset="https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-620x620.png 620w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-300x300.png 300w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-150x150.png 150w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK-768x768.png 768w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2024/03/FK.png 1080w" sizes="auto, (max-width: 620px) 100vw, 620px" /></p>
<p>Das Thema KI ist ja jetzt nicht neu und in der Medienwelt gibt es ja viel KI Potential: Medienanalyse, Recommendations, Predictions&#8230; dennoch sind jetzt viele neugierig auf die Möglichkeiten insbesondere zur Automatisierung von Prozessen. Und da helfen die neuen KI Modelle tatsächlich besser, weil die Qualität einfach besser ist!<span id="more-2123"></span></p>
<p>The post <a href="https://www.patricksteinert.de/technology/data-sience/ki-in-der-digital-multimedia-supply-chain/">KI in der Digital Multimedia Supply Chain</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/data-sience/ki-in-der-digital-multimedia-supply-chain/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>256 Metaverse Records Dataset</title>
		<link>https://www.patricksteinert.de/technology/256-metaverse-records-dataset/</link>
					<comments>https://www.patricksteinert.de/technology/256-metaverse-records-dataset/#comments</comments>
		
		<dc:creator><![CDATA[Patrick Steinert]]></dc:creator>
		<pubDate>Wed, 20 Dec 2023 09:19:18 +0000</pubDate>
				<category><![CDATA[Metaverse]]></category>
		<category><![CDATA[Technology]]></category>
		<category><![CDATA[metaverse]]></category>
		<guid isPermaLink="false">https://www.patricksteinert.de/?p=2104</guid>

					<description><![CDATA[<p>I&#8217;m thrilled to announce the availability of the 256-MetaverseRecords Dataset, a dataset for experiments with machine learning technology for metaverse recordings. This dataset represents a significant step forward in the exploration of the integration of virtual worlds in Multimedia Information Retrieval. The dataset was created to explore the use of meatverse virtual worlds and evlauate performance of feature exraction methods on Metaverse Recordings. The dataset contains 256 video records of user sessions in virtual worlds, mostly based on screen recordings. The dataset is part of my work to achieve a doctor&#8217;s degree. The recordings were made during a student workshop with 13 participants. Each student was tasked to create 20 videos with a duration of 2-5 minutes, resulting in a rich collection of data. This variety ensures a robust dataset that encapsulates a wide range of virtual interactions, making it an invaluable tool for researchers. Each student was required to&#8230;</p>
<p>The post <a href="https://www.patricksteinert.de/technology/256-metaverse-records-dataset/">256 Metaverse Records Dataset</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><img loading="lazy" decoding="async" class="aligncenter wp-image-2105 size-full" src="https://www.patricksteinert.de/wordpress/wp-content/uploads/2023/12/dataset-overview-72.png" alt="The dataset was created to explore the use of meatverse virtual worlds and evlauate performance of feature exraction methods on Metaverse Recordings." width="1963" height="500" srcset="https://www.patricksteinert.de/wordpress/wp-content/uploads/2023/12/dataset-overview-72.png 1963w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2023/12/dataset-overview-72-300x76.png 300w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2023/12/dataset-overview-72-620x158.png 620w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2023/12/dataset-overview-72-768x196.png 768w, https://www.patricksteinert.de/wordpress/wp-content/uploads/2023/12/dataset-overview-72-1536x391.png 1536w" sizes="auto, (max-width: 1963px) 100vw, 1963px" /></p>
<p>I&#8217;m thrilled to announce the availability of the 256-MetaverseRecords Dataset, a dataset for experiments with machine learning technology for <a href="https://www.patricksteinert.de/technology/metaverse/a-primer-on-the-metaverse/">metaverse</a> recordings. This dataset represents a significant step forward in the exploration of the integration of virtual worlds in <a href="https://en.wikipedia.org/wiki/Multimedia_information_retrieval">Multimedia Information Retrieval</a>.</p>
<blockquote><p>The dataset was created to explore the use of meatverse virtual worlds and evlauate performance of feature exraction methods on Metaverse Recordings. The dataset contains 256 video records of user sessions in virtual worlds, mostly based on screen recordings.</p></blockquote>
<p><span id="more-2104"></span></p>
<p>The dataset is part of my work to achieve a doctor&#8217;s degree. The recordings were made during a student workshop with 13 participants. Each student was tasked to create 20 videos with a duration of 2-5 minutes, resulting in a rich collection of data. This variety ensures a robust dataset that encapsulates a wide range of virtual interactions, making it an invaluable tool for researchers.</p>
<p>Each student was required to annotate their videos based on a provided schema. These annotations include information about the actions occurring within each recording. This structured approach to data collection ensures that the dataset is not only vast but also well-organized, allowing for efficient data retrieval and analysis.</p>
<p>Together with the recordings, several annotations are available. These annotations serve as a starting point for self-developed processing and experiments. Researchers and developers can use these annotations to train machine learning models, test new algorithms, or even develop new annotation techniques tailored to the unique characteristics of the metaverse.</p>
<p>The 256-MetaverseRecords Dataset is not just a collection of videos; it&#8217;s a gateway to understanding the complex dynamics of virtual worlds. The potential applications of this dataset are vast. For instance, it could be used to improve user experience in virtual reality (VR) games by enhancing the realism of the environment or to develop new educational tools that leverage the immersive nature of VR.</p>
<p>Furthermore, this dataset could play a crucial role in advancing the field of computer vision, especially in understanding and interpreting the rich, dynamic content of virtual environments. It offers a unique challenge to traditional feature extraction methods, pushing the boundaries of what&#8217;s possible in machine learning and AI.</p>
<p>In conclusion, the 256-MetaverseRecords Dataset is an invaluable resource for anyone interested in the intersection of virtual reality and machine learning. It opens up new avenues for research and development, promising to contribute significantly to our understanding and utilization of virtual worlds.</p>
<p>The dataset has its dedicated website and is available at: <a href="https://patricksteinert.de/256-metaverse-records-dataset/">https://patricksteinert.de/256-metaverse-records-dataset/</a></p>
<p>The post <a href="https://www.patricksteinert.de/technology/256-metaverse-records-dataset/">256 Metaverse Records Dataset</a> appeared first on <a href="https://www.patricksteinert.de">Patrick Steinert</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.patricksteinert.de/technology/256-metaverse-records-dataset/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
