<?xml version="1.0" encoding="utf-8"?>


    <rss version="2.0"
         xmlns:content="http://purl.org/rss/1.0/modules/content/"
         xmlns:atom="http://www.w3.org/2005/Atom"
         xmlns:media="http://search.yahoo.com/mrss/">
        <channel>
            
                
                    <ttl>60</ttl>
                    <title>Universität Bremen - Leitthema :: Empowering Digital Media</title>
                    <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media</link>
                    <description></description>
                    <language>de</language>
                    <copyright>Universität Bremen</copyright>
                    <pubDate>Sat, 07 Mar 2026 01:19:48 +0100</pubDate>
                    <lastBuildDate>Sat, 07 Mar 2026 01:19:48 +0100</lastBuildDate>
                    <atom:link href="https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/rss.xml" rel="self" type="application/rss+xml"/>
                    <generator>Universität Bremen</generator>
                
                
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-17763</guid>
                            <pubDate>Fri, 19 Jan 2018 12:40:00 +0100</pubDate>
                            <title>„Global Game Jam 2018“: Gemeinsam in 48 Stunden ein Spiel entwickeln</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/global-game-jam-2018-gemeinsam-in-48-stunden-ein-spiel-entwickeln-1</link>
                            
                            <description>TZI der Uni Bremen lädt Studierende, Profis und Enthusiasten vom 26. bis 28. Januar zum weltweiten Kreativ-Event ein</description>
                            <content:encoded><![CDATA[<p class="bodytext">Das Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen ist vom 26. bis 28. Januar 2018 ein Standort des „Global Game Jam“, bei dem die Teilnehmerinnen und Teilnehmer innerhalb von 24 Stunden ein Spiel entwickeln. Die Veranstaltung, die für alle Interessierten offen ist, findet an 800 Orten in mehr als 60 Ländern gleichzeitig statt.&nbsp;<br><br> Der Global Game Jam bietet Studierenden, Profis und Enthusiasten die Gelegenheit, sich auszutauschen, Erfahrungen zu sammeln, eine Menge Spaß zu haben und mit ihren Spielen ein weltweites Publikum zu erreichen. Organisiert wird der Jam von Studierenden und Mitarbeitern der Arbeitsgruppe Digitale Medien von Professor Rainer Malaka am TZI.&nbsp;<br><br> Gemeinsam in einer Gruppe entwickeln die Teilnehmerinnen und Teilnehmer ein Konzept, kreieren die Spielwelt und erstellen die Spiellogik. Am Ende des Programmier-Marathons treten alle Gruppen gegeneinander an und stellen ihre Ergebnisse vor, um die besten Spiele des GGJ zu wählen. Im Fokus steht allerdings der Spaß am gemeinsamen Beratschlagen, Entwickeln und Spielen.&nbsp;<br><br> Gruppen können schon im Vorfeld gebildet werden oder auch spontan vor Ort. Zu Beginn wird ein geheimes Thema veröffentlicht, das in die Spiele mit einfließen soll. So können die Teilnehmenden fokussiert ihrer Fantasie freien Lauf lassen. Zusätzlich werden einige Regeln für Extrapunkte in der Spielbewertung bekannt gegeben.&nbsp;<br><br> Mitzubringen sind für den Jam ein Laptop mit der individuell benötigten Software, Papier und Stifte für die Planungsphase und natürlich Essen und Trinken für die 48 Stunden. Den Bremer Event richten TZI-Mitarbeiter bereits im neunten Jahr aus. Er findet im Mehrzweckhochhaus (MZH), Ebene 0, in den Räumen P1, P2 und P3 an der Bibliothekstraße 5 statt. Einlass ist am Freitag, 26. Januar, um 15 Uhr, das Ende ist für Sonntag, 28. Januar, um 19 Uhr geplant. Fragen beantwortet das Organisationsteam via Mail&nbsp;.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/9/8/csm_GC0G2306_29aaa44457.jpg" length="255256" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/9/8/csm_GC0G2306_29aaa44457.jpg" fileSize="255256" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18064</guid>
                            <pubDate>Mon, 18 Jun 2018 10:48:57 +0200</pubDate>
                            <title>Assistenzsystem unterstützt Menschen mit Behinderungen bei der Arbeit</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/assistenzsystem-unterstuetzt-menschen-mit-behinderungen-bei-der-arbeit0</link>
                            
                            <description>Das Technologie-Zentrum Informatik und Informationstechnik der Universität Bremen hat mit der Universität Augsburg und der Werkstatt Bremen im Rahmen des Projekts „EmotAsS&quot; ein Softwaresystem entwickelt, das sich den Emotionen seiner Nutzer anpasst.</description>
                            <content:encoded><![CDATA[<p>Menschen mit Behinderungen haben es schwer, einen passenden Arbeitsplatz zu finden. Digitale Medien können ihnen helfen, neue Tätigkeiten zu erschließen oder bestehende Arbeiten besser zu bewältigen. Das TZI der Universität Bremen hat daher unter Leitung von Professorin Heidi Schelhowe im dreijährigen Projekt „Emotionssensitives Assistenzsystem zur Unterstützung von Menschen mit Einschränkungen“ (EmotAsS) gemeinsam mit der Universität Augsburg und der Werkstatt Bremen an einer Problemlösung gearbeitet. Herausgekommen ist ein System, das sowohl die Beschäftigten unterstützt als auch ihre Betreuungspersonen entlastet. Es liefert nicht nur die notwendigen Instruktionen für eine Aufgabe, sondern reagiert auch auf den emotionalen Zustand der Anwenderinnen und Anwender, um sie nicht zu über- oder unterfordern. Das Projekt wurde vom Bundesministerium für Bildung und Forschung gefördert.<br><br><strong>Spracherkennung registriert negative Gefühle</strong><br> Den Prototypen des Systems nutzt die Werkstatt Bremen, Träger der Werkstatt für behinderte Menschen „Martinshof“, im Bereich Hauswirtschaft. Die Beschäftigten erhalten am Bildschirm Anweisungen für verschiedene Reinigungsaufgaben in der Werkstatt, beispielsweise in den Büros oder im Treppenhaus. Gesteuert wird das System hauptsächlich per Spracheingabe, wahlweise aber auch per Touchscreen oder über eine einfache Tastatur. Im Zuge der Spracherkennung ermittelt das System zusätzlich positive oder negative Emotionen sowie deren Intensität. Im Falle von negativen Gefühlen wird den Nutzerinnen und Nutzern angeboten, erst einmal ein beruhigendes Spiel zu spielen. Bei einem Mangel an Energie wird stattdessen eine kleine Verfolgungsjagd vorgeschlagen.&nbsp; &nbsp;<br><br> „In der Informatik versuchen wir heute, Gefühle zu erkennen und zu berechnen“, erklärt Professorin Heidi Schelhowe, Leiterin der Arbeitsgruppe Digitale Medien in der Bildung (dimeb). An der Universität Bremen werde dies mit einer hohen Kompetenz in der Pädagogik verknüpft, um zu erforschen, wie die Informatik in Bildungszusammenhängen eingesetzt werden kann. Bei dem Assistenzsystem, so betonen auch die Projektmitarbeiter Christian Cohrs und Florian Lütkebomert, gehe es darum, den Menschen mit Behinderungen mehr Verantwortung, Selbstbestimmung und Kontrolle zu ermöglichen. Die Emotionserkennung wurde dabei von der Universität Augsburg beigesteuert.<br><br><strong>Beschäftigte sind begeistert</strong><br><br> Die Beschäftigten in der Werkstatt Bremen, einer der größten Einrichtungen ihrer Art in Deutschland, haben das System sofort angenommen und ihm sogar einen Namen gegeben: „Georg“ heißt ihr digitaler Ratgeber jetzt. „Die Mitarbeitenden in der Hauswirtschaft haben eine Aufwertung ihrer Tätigkeit durch das Projekt erfahren, sie sind sehr begeistert“, berichtet Werkstattleiter Hinderk Ulferts. Seitens der Betreuenden habe es zunächst Berührungsängste gegeben, weil sie in dem Assistenzsystem eine Gefahr für ihren Arbeitsplatz sahen. Mittlerweile seien sie jedoch froh über die Entlastung, denn „Georg“ beantwortet die häufig wiederkehrenden Fragen der Beschäftigten immer wieder mit Engelsgeduld. Die Betreuerinnen und Betreuer können sich auf andere Aufgaben konzentrieren. &nbsp;<br><br> Das Projekt EmotAsS ist zum 31. Mai 2018 ausgelaufen. Die Beteiligten kämpfen jedoch darum, das System weiterentwickeln zu können, weil es für die Menschen mit Behinderungen in der Werkstatt Bremen eine große Unterstützung darstellt. „Experten sind sich sicher, dass es einen großen Bedarf an solchen Hilfen gibt“, betont Monika Emmel, die das Projekt für die Werkstatt betreut. „Ich bin der Meinung: das ist die Zukunft.“ &nbsp;<br><br><strong>Weitere Informationen:</strong><br><a href="http://www.emotass.de/" target="_blank" class="external-link-new-window" title="Opens external link in new window" rel="noreferrer">www.emotass.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/EmotAsS_2018.jpg" length="39996" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/EmotAsS_2018.jpg" fileSize="39996" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18067</guid>
                            <pubDate>Mon, 04 Dec 2017 12:44:00 +0100</pubDate>
                            <title>Virtual-Reality-Experten vernetzen sich</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/virtual-reality-experten-vernetzen-sich</link>
                            
                            <description>Ein virtuelles Korallenriff, eine Weltraummission und ein System zur Fernwartung von Schäden an Flugzeugrümpfen – die Organisatoren der französischen Fachmesse &quot;Laval Virtual&quot; tauchten in sehr unterschiedlichste Welten ein, ...</description>
                            <content:encoded><![CDATA[<p>Ein virtuelles Korallenriff, eine Weltraummission und ein System zur Fernwartung von Schäden an Flugzeugrümpfen – die Organisatoren der französischen Fachmesse "Laval Virtual" tauchten in sehr unterschiedlichste Welten ein, als sie sich Mitte November über Projekte der Arbeitsgruppe Computer Graphics &amp; Virtual Reality an der Universität Bremen informierten. Die dreiköpfige Delegation war angereist, weil sie ein europäisches Netzwerk aus Virtual-Reality-Experten aufbauen und den gegenseitigen Austausch unterstützen möchte. Gleichzeitig geht es ihr darum, Angebote der Messe insbesondere für junge Start-ups bekannter zu machen.<br><br> Die Messe, die vom 4. bis 8. April 2018 im nordwestfranzösischen Laval stattfindet, rechnet mit 300 Ausstellern und 20.000 Besuchern aus 45 Ländern. Mehrere Teilveranstaltungen bieten Nachwuchskräften die Chance, ihr Virtual-Reality-Know-how zu beweisen oder ihre Start-ups ins Rampenlicht zu rücken. So führt der "Start-up Contest" beispielsweise Unternehmensgründer zusammen – 14 von ihnen werden bei der Messe besonders hervorgehoben und ins Rennen um den "Best Start-up Award" geschickt. An Studierende richtet sich der Wettbewerb "Virtual Fantasy". Sie können in diesem Rahmen entweder Demo-Projekte präsentieren oder an einem 30-stündigen Hackathon teilnehmen. Nähere Informationen zum Programm sind unter www.laval-virtual.org erhältlich.<br><br> Auf ihrer Station in Bremen wurden die Vertreter der Messe von Prof. Gabriel Zachmann und seiner Arbeitsgruppe am Technologie-Zentrum Informatik und Informationstechnik (TZI) begrüßt. Das Team präsentierte Virtual-Reality-Technologien aus aktuellen Projekten in unterschiedlichen Anwendungsbereichen. So wird beispielsweise eine Anwendung entwickelt, die eine autonome Steuerung der Lampen in Operationssälen ermöglicht, um die zu behandelnde Stelle jederzeit optimal auszuleuchten, ohne manuell Einstellungen vornehmen zu müssen. Die VR-Technik hilft dem System, die Umgebung und die Personen zu erkennen. Bei der Weltraummission geht es unter anderem darum, die Position von Raumfahrzeugen im Weltall präziser zu bestimmen – denn dort gibt es kein GPS. Ziel ist unter anderem die genauere Planung von Landungen auf Asteroiden, um dort z.B. nach Wasser oder anderen Rohstoffen zu suchen. Die Arbeitsgruppe von Professor Zachmann kooperiert dort mit der AG Neuroinformatik und der AG Optimierung und optimale Steuerung.<br> &nbsp; &nbsp;<br> Das Virtual-Laval-Team nutzte den Besuch an der Uni Bremen, um auch mit lokalen Unternehmen in Kontakt zu kommen. Mit dabei war auch Uni-Bremen-Absolventin Lucia Mendelova, die mittlerweile Mixed-Reality-Projekte für die HEC GmbH in der Bremer Überseestadt betreut – ein Beispiel für die Ausbildung von dringend benötigten IT-Fachkräften für die regionale Wirtschaft durch das TZI. &nbsp;<br><br><strong>Weitere Informationen:</strong><br><a href="http://cgvr.informatik.uni-bremen.de/" target="_blank" rel="noreferrer">cgvr.informatik.uni-bremen.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2017/HCIS_Experten_vernetzen_sich_2017.jpg" length="24662" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2017/HCIS_Experten_vernetzen_sich_2017.jpg" fileSize="24662" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18069</guid>
                            <pubDate>Mon, 02 Oct 2017 12:54:00 +0200</pubDate>
                            <title>Neues Graduiertenkolleg der Universität Bremen: Digitale Medien zum Wohle des Menschen</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/neues-graduiertenkolleg-der-universitaet-bremen-digitale-medien-zum-wohle-des-menschen</link>
                            
                            <description>Klaus Tschira Stiftung fördert „Empowering Digital Media“ für fünf Jahre mit rund 1,4 Millionen Euro / Offizieller Start ist am 18. Oktober</description>
                            <content:encoded><![CDATA[<p class="bodytext">Digitale Medien umgeben uns in Form von Smartphones, Smartwatches und vielen anderen Geräten. In Zukunft werden zusätzlich Autos und Roboter im Haushalt mit diesen Geräten vernetzt sein und Daten für und über uns sammeln, um uns in allen möglichen Lebenssituationen zu helfen. Doch wie können diese digitalen Helfer uns Menschen bestmöglich unterstützen und zu unserem langfristigen Wohl beitragen? Dieser Frage widmet sich das neue Graduiertenkolleg „Empowering Digital Media“ am Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen. Das Programm unter der Leitung des Informatikprofessors Rainer Malaka wird von der Klaus Tschira Stiftung bis 2022 mit rund 1,4 Millionen Euro gefördert. Offizieller Start ist der 18. Oktober 2017.<br> &nbsp;<br><strong>Im Mittelpunkt steht die Mensch-Technik-Interaktion</strong><br> &nbsp;<br> Insgesamt werden 20 Stipendiatinnen und Stipendiaten aus den Bereichen Medieninformatik, Mediengestaltung und Künstliche Intelligenz im Rahmen ihrer Doktorarbeiten neue Methoden und Techniken für Digitale Medien entwickeln. Damit möchten sie Menschen in ihrem Leben nachhaltig unterstützen und eine positive Wirkung auf die Gesellschaft entfalten.<br> &nbsp;<br> Im Mittelpunkt steht die Mensch-Technik-Interaktion. Während bisher bei der Entwicklung digitaler Medien vor allem deren Effizienz und Bedienbarkeit im Vordergrund standen, sollen weitreichendere Fragen berücksichtigt werden. Welche langfristigen gesundheitlichen Effekte hat das Telefonieren mit dem Smartphone? Wie können Nutzer verstehen, was mit ihren Daten bei der Nutzung einer App passiert? Wie können Navigationssysteme die Nutzer kompetenter machen?<br> &nbsp;<br><strong>Drei Themenfelder im Fokus</strong><br> &nbsp;<br> Das Graduiertenkolleg „Empowering Digital Media“ soll Menschen im Alltag helfen, ihre Ziele in einer selbstbestimmten Art zu erreichen und sie in ihrem Streben nach Kompetenz und Autonomie unterstützen. Im Fokus stehen die drei Themenfelder Medizin und Gesundheit, Entwicklung und Forschung, sowie der Alltag.<br> &nbsp;<br><strong>Erster Schwerpunkt: Medizin und Gesundheit</strong><br> &nbsp;<br> Im Themenfeld Medizin und Gesundheit sollen Digitale Medien untersucht werden, die sowohl Patienten als auch Ärztinnen und Ärzten sowie Fachkräften aus dem therapeutischen Bereich helfen, kompetenter die Gesundheit zu erhalten oder wiederherzustellen. Die Universität Bremen verfügt hier bereits über fundierte Erfahrungen in beispielsweise der Chirurgie und der Physiotherapie: Digitale Medien werden eingesetzt, um Chirurgen bei komplizierten Operationen zu unterstützen. Bewegungs-Computerspiele helfen Patienten bei Rückenproblemen.<br> &nbsp;<br><strong>Zweites Themenfeld: Entwicklung und Forschung</strong><br> &nbsp;<br> Im Themenfeld Entwicklung und Forschung sollen Digitale Medien Expertinnen und Experten aus Wissenschaft und Entwicklung bei ihrer Tätigkeit weiterbringen. Digitale Medien könnten etwa bei der Sammlung und Analyse von großen Datenmengen unterstützen, wie sie beispielsweise in Versuchsreihen gewonnen werden. Aus der Analyse der aufbereiteten Daten könnten die Forscherinnen und Forscher schneller Ergebnisse erkennen sowie neue Ideen entwickeln und überprüfen.<br> &nbsp;<br><strong>Dritter Schwerpunkt: Alltag</strong><br> &nbsp;<br> Der dritte Themenbereich, Alltag umfasst vor allem die Anwendung und den Einsatz künftiger digitaler Medien von privaten Nutzerinnen und Nutzern. Dort stellt sich die Frage, inwiefern Menschen kompetent und selbstbestimmt mit fortgeschrittenen digitalen Medien – beispielsweise Haushaltsrobotern oder intelligenten Umgebungen – umgehen können, ohne ihre Autonomie und Selbstbestimmtheit aufzugeben.<br> &nbsp;<br><strong>Neue Methoden aus Künstlicher Intelligenz und Design</strong><br> &nbsp;<br> Das Graduiertenkolleg soll interdisziplinär arbeiten und unterschiedliche Methoden weiterentwickeln, darunter auch wissenschaftliche Methoden aus der Künstlichen Intelligenz sowie Design-Methoden aus der Medien- und Produktgestaltung. Sie sollen helfen, „Empowering Digital Media“ nicht nur zu entwerfen und zu gestalten, sondern auch zu testen, ob sie für die Anwenderinnen und Anwender langfristig nützlich sind.<br> &nbsp;<br><strong>Kick-off-Symposium am 18. Oktober in Bremen</strong><br> &nbsp;<br> Das Graduiertenkolleg startet am 18. Okotober 2017 um 13 Uhr offiziell mit einem öffentlichen Kick-off-Symposium an der Universität Bremen (Cartesium-Gebäude, Enrique-Schmidt-Straße 5) mit Vorträgen von Professor Rainer Malaka („Empowering Digital Media"), Professorin&nbsp; Tanja Schulz („Living Technologies") und Professorin&nbsp; Yvonne Rogers vom University College London ("Digital Data – In the Home and Beyond") sowie einem anschließenden Empfang.<br> &nbsp;<br><strong>Kooperationspartner</strong><br> &nbsp;<br> Das TZI der Universität Bremen kooperiert im Rahmen des Graduiertenkollegs mit zahlreichen Partnern – insbesondere der Hochschule für Künste Bremen, dem Heidelberg Institut für Theoretische Studien, dem European Media Laboratory in Heidelberg, dem Nationalen Institut für Wissenschaftskommunikation in Karlsruhe und der Technischen Universität Kaiserslautern sowie einer Vielzahl von internationalen Universitäten.<br> &nbsp;<br><strong>Über die Klaus Tschira Stiftung</strong><br> &nbsp;<br> Die Klaus Tschira Stiftung (KTS) fördert Naturwissenschaften, Mathematik und Informatik und möchte zur Wertschätzung dieser Fächer beitragen. Sie wurde 1995 von dem Physiker und SAP-Mitgründer Klaus Tschira mit privaten Mitteln ins Leben gerufen. Ihre drei Förderschwerpunkte sind Bildung, Forschung und Wissenschaftskommunikation. Das bundesweite Engagement beginnt im Kindergarten und setzt sich in Schulen, Hochschulen und Forschungseinrichtungen fort.&nbsp; Die Stiftung setzt sich für neue Formen der Vermittlung naturwissenschaftlicher Inhalte ein.&nbsp;<a href="http://www.klaus-tschira-stiftung.de/" target="_blank" class="external-link-new-window" title="Opens external link in new window" rel="noreferrer">www.klaus-tschira-stiftung.de</a><br> &nbsp;<br><strong>Weitere Informationen:</strong>&nbsp;<br><a href="http://dm.tzi.de/graduate-school/" target="_blank" rel="noreferrer">dm.tzi.de/graduate-school/</a></p><p>&nbsp;</p>]]></content:encoded>
                            <category>News</category>
                            
                            
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18236</guid>
                            <pubDate>Mon, 16 Jul 2018 10:43:00 +0200</pubDate>
                            <title>Doppelte Auszeichnung für Prof. Dr. Heidi Schelhowe</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/auszeichnung-schelhowe-2018</link>
                            
                            <description>Auf der „18th Interaction Design and Children Conference” (IDC 2018), die vom 19. bis 22. Juni in Trondheim stattfand, ist Prof. Dr. Heidi Schelhowe mit dem Edith Ackermann Award for Outstanding Achievement in der Kategorie „Eminent Scholar“ geehrt worden. </description>
                            <content:encoded><![CDATA[<p>Sie erhielt den Preis für ihre langjährigen Forschungsleistungen im Bereich der Interaktion von Kindern mit Computertechnologien.&nbsp;<br><br> Der Award wird jährlich im Andenken an die 2016 verstorbene Wissenschaftlerin Edith Ackermann vergeben. Die amerikanische Psychologin mit schweizerischen Wurzeln hatte an den Schnittstellen von Entwicklungspsychologie, Lernen, Spielen und Design geforscht.<br><br> Prof. Schelhowe, die am TZI die Arbeitsgruppe „Digitale Medien in der Bildung“ (dimeb) leitet, wurde darüber hinaus kürzlich vom Fernsehrat in den Programmbeirat von ARTE Deutschland TV gewählt. Sie vertritt – nominiert von den Hochschulen des Landes Bremen – im Fernsehrat des ZDF den Bereich Wissenschaft, den das Bundesland Bremen bestellt, und ist im Fernsehrat auch Vorsitzende des Ausschusses Telemedien.</p>]]></content:encoded>
                            <category>News</category>
                            
                            
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18719</guid>
                            <pubDate>Mon, 24 Sep 2018 15:02:11 +0200</pubDate>
                            <title>Virtuelle Marslandschaft ermöglicht Test von Roboterschwärmen </title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/virtuelle-marslandschaft-ermoeglicht-test-von-roboterschwaermen0</link>
                            
                            <description>Das TZI entwickelt eine detailgetreue Simulation des Canyon-Systems „Valles Marineris“ auf dem Mars.</description>
                            <content:encoded><![CDATA[<p>Rund sechs bis acht Monate dauert ein Flug von der Erde zum Mars, wenn die Distanz zwischen den beiden Umlaufbahnen gering ist. Aufgrund der langen und teuren Anreise ist es für Raumfahrtmissionen entscheidend, dass alle technischen Geräte vor Ort reibungslos funktionieren. Wissenschaftler des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen unter Leitung von Prof. Gabriel Zachmann entwickeln daher zurzeit eine detailgetreue Simulation von 40 Quadratkilometern Mars-Oberfläche. Darüber hinaus ermöglichen sie es mehreren Forschergruppen, in dieser virtuellen Welt die Zusammenarbeit von Weltraumrobotern in Schwärmen zu erproben. &nbsp; &nbsp; &nbsp;&nbsp;</p><p><strong>Größte Canyon-Landschaft des Sonnensystems</strong></p><p>Die Entwicklung der Simulation erfolgt im Rahmen des Projekts VaMEx-VTB. Die Abkürzung steht für „Valles Marineris Explorer - Virtual TestBed“ – dabei handelt es sich um eine vorbereitende Missionsstudie mit dem Ziel, in einer zukünftigen VaMEx-Raumfahrtmission die „Mariner-Täler“ auf dem Mars zu untersuchen. Sie bilden mit einer Ausdehnung von 4,000 Kilometern und einer Tiefe von bis zu 10,000 Metern das größte Canyon-Geflecht des Sonnensystems. Gleichzeitig bergen sie möglicherweise Hinweise auf Rohstoffe oder auf extraterrestrisches Leben, denn die Bedingungen für die Entstehung von Mikroorganismen könnten zumindest in der Vergangenheit – als der Mars klimatisch noch weniger lebensfeindlich war – gut gewesen sein. &nbsp;</p><p>Zu finden sind solche Hinweise am ehesten in den geschützten Nischen des Canyon-Systems, also an den schwer zugänglichen Stellen. Die Umsetzungspartner der VaMEx-Initiative des DLR Raumfahrtmanagements entwickeln dafür einen ganzen Schwarm unterschiedlicher Robotertypen, die sich gegenseitig ergänzen, indem sie sich beispielsweise laufend, fahrend oder fliegend fortbewegen. Der realitätsnahe Test dieser Zusammenarbeit ist allerdings auf der Erde schwierig, weil die Umweltbedingungen hier stark abweichen. Die TZI-Wissenschaftler bauen daher nicht nur einen großen Abschnitt der Marslandschaft virtuell nach, sondern programmieren auch Schnittstellen zu den Systemen der Roboter, die von den Projektpartnern entwickelt wurden. So können die Teilnehmer ihre Technologien für den Mars testen, ohne hinreisen zu müssen. &nbsp;&nbsp;</p><p><strong>Roboter interagieren autonom und in Echtzeit</strong></p><p>Eine Herausforderung des Projekts VaMEx-VTB besteht in der Verarbeitung der enormen Datenmengen, die für die realitätsnahe Darstellung der 40 Quadratkilometer Mars-Oberfläche – auf Basis eines Scans der NASA – erforderlich sind. Ebenfalls komplex ist die Einbindung vieler unterschiedlicher Robotersysteme, damit sie in Echtzeit im System interagieren können. „Der Schwarm muss sich autonom organisieren“, erklärt Prof. Zachmann. Die Simulation soll nicht nur als Desktop-Anwendung entwickelt werden, sondern auch als Virtual-Reality-Version. So können die Projektteilnehmer mit Hilfe einer Virtual-Reality-Brille noch realer in das Szenario einsteigen. &nbsp;&nbsp;</p><p>Das Projekt VaMEx-VTB wird vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi) gefördert. Als Auftragnehmer der Universität Bremen sind dabei: das Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI GmbH, Bremen), Universität der Bundeswehr (München), TU München, TU Braunschweig, DLR Oberpfaffenhofen und Uni Würzburg. Das Projekt, das im Oktober 2017 startete, läuft noch bis Mai 2019. Die VaMEx-Initiative ist Teil der DLR Explorer-Initiativen.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/Vamex-Grafik2.jpg" length="93378" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/Vamex-Grafik2.jpg" fileSize="93378" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18872</guid>
                            <pubDate>Wed, 17 Oct 2018 22:54:15 +0200</pubDate>
                            <title>TZI-Team belegt ersten Platz beim Gründerwettbewerb</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/tzi-team-belegt-ersten-platz-beim-gruenderwettbewerb</link>
                            
                            <description>Nina und Dirk Wenig setzten sich mit ihrem innovativen Chatbot IDA bei den „Campusideen 2018“ durch.</description>
                            <content:encoded><![CDATA[<p>Chatprogramme erfreuen sich im Kundenservice von großen Unternehmen zunehmender Beliebtheit. Unkomplizierte, wiederkehrende Anfragen können sie häufig beantworten, ohne dass menschliches Servicepersonal eingreifen muss. Die Erstellung eines solchen Chatbots für einen spezifischen Einsatzzweck ist jedoch recht aufwändig, sodass es sich für kleine und mittlere Unternehmen meistens nicht lohnt.&nbsp;</p><p>Dr.-Ing. Nina Wenig und Dr.-Ing. Dirk Wenig entwickeln daher eine Chatbot-Technologie, die auf Künstlicher Intelligenz basiert und sich weitgehend selbst trainieren kann. Für diese Innovation wurden sie jetzt mit dem 1. Preis in der Kategorie Geschäftsideen bei den „Campusideen“ ausgezeichnet. Der Wettbewerb wird jährlich von der Universität Bremen, der Hochschule Bremen, der Hochschule Bremerhaven sowie der Bremer Aufbau-Bank ausgerichtet.</p><p>Die Chatbot-Technologie mit dem Namen IDA (kurz für „intelligent, domänenspezifisch und anpassbar“) kann für den Kundendienst, als Marketingwerkzeug oder zur Wissensvermittlung eingesetzt werden. Sie eignet sich selbstständig das benötigte Wissen an, indem er beispielsweise Schulungsunterlagen, Webseiten oder andere Quellen auswertet und Zusammenhänge zwischen Begriffen erkennt. Um die Kontrolle über das angeeignete Wissen des Bots zu behalten, können die Betreiber sich die Verknüpfungen anzeigen lassen und sie bei Bedarf anpassen. Damit auch größere Projekte überschaubar bleiben, arbeiten die Wenigs an verschiedenen Konzepten und Visualisierungen.</p><p>Für das Jahr 2019 planen die Wissenschaftler die Firmengründung rund um IDA. Sie befinden sich bereits mit verschiedenen Firmen im Gespräch über Kooperationen. „Wir wollen mit unserem Dienst kleine und mittlere Unternehmen im deutschsprachigen Raum ansprechen“, berichtet Nina Wenig. „Es gibt schon viele Ansätze für die englische Sprache, aber deutschsprachige Chatbots zu erstellen ist immer noch mit einem großen Aufwand verbunden.“</p><p><strong>Weitere Informationen:&nbsp;</strong><br><a href="https://idabot.net/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://idabot.net/</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/wenigx2.jpg" length="131859" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/wenigx2.jpg" fileSize="131859" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-18910</guid>
                            <pubDate>Mon, 29 Oct 2018 21:27:18 +0100</pubDate>
                            <title>Neue Lerntechnologien ausprobieren bei der Info-Tour „Erfahrbares Lernen“</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/neue-lerntechnologien-ausprobieren-bei-der-info-tour-erfahrbares-lernen</link>
                            
                            <description>BMBF-geförderte Veranstaltung des TZI lädt Vertreter aus Schulen, Wissenschaft, Unternehmen und Politik am 6. November 2018 in die Bremer Überseestadt ein.</description>
                            <content:encoded><![CDATA[<p>Die Digitalisierung eröffnet viele neue Möglichkeiten für die Vermittlung von Wissen. Informationen lassen sich auf vielfältige Weise darstellen und animieren, um das Lernen abwechslungsreicher zu gestalten. Gleichzeitig können die Lernenden komplexe Zusammenhänge mit unterschiedlichen Sinnen erfahren, beispielsweise wenn sie eine mathematische Aufgabe durch Gestensteuerung oder durch das Zusammenfügen elektronischer Elemente lösen. Neue Ansätze für derartige Lernformen präsentiert die Informationstour „Erfahrbares Lernen“ des Bundesministeriums für Bildung und Forschung am 6. November im Rahmen von zwei Veranstaltungen in Bremen (beide im Hudson Event Loft, Konsul-Smidt-Straße 8D, 28217 Bremen). Gastgeber ist das Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen mit dem Projekt <a href="https://idw-online.de/de/news657640" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">„Multimodal Algebra Lernen“ (MAL)</a>.&nbsp;</p><p>Das Nachmittagsprogramm richtet sich unter dem Titel „Digitalisierung in der Bildung“ primär an Vertreter aus Bildung und Wissenschaft, während das Abendprogramm – in Kooperation mit dem Innovationsnetzwerk i2b – zusätzlich verstärkt die Wirtschaft und Politik anspricht.&nbsp;</p><p>Von 13 bis 17.30 Uhr präsentieren die beteiligten Einrichtungen ihre Demonstratoren zunächst verschiedenen Schulgruppen sowie der interessierten Öffentlichkeit. Von 14 bis 16 Uhr hält das Programm mehrere Vorträge und eine Diskussion rund um das Thema „Wirksamkeit digitaler Medien in der Schule“ bereit.&nbsp;</p><p>Die Abendveranstaltung wird von 19 bis 22 Uhr unter dem Titel „Neue Technologien für Training und Lernen – Wie Mixed Reality Wissen begreifbar macht" ausgerichtet. Nach einer Keynote von Prof. Dr. Rainer Malaka (Universität Bremen) diskutieren Vertreter aus Wirtschaft und Wissenschaft mit der Senatorin für Wissenschaft, Gesundheit und Verbraucherschutz, Prof. Dr. Eva Quante-Brandt, über die Chancen von neuen Lerntechnologien für die Gesellschaft. Die Demonstratoren werden auch am Abend zu besichtigen sein.</p><p><strong>Programm und Anmeldung für den Nachmittag:</strong><br><a href="https://ssl.vdivde-it.de/registration/2760/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://ssl.vdivde-it.de/registration/2760/</a></p><p><strong>Programm und Anmeldungen zur Abendveranstaltung:</strong><br><a href="https://www.i2b.de/detail/i2b-meet-up-neue-technologien-fuer-training-und-lernen-wie-mixed-reality-wissen-begreifbar-macht/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://www.i2b.de/detail/i2b-meet-up-neue-technologien-fuer-training-und-lernen-wie-mixed-reality-wissen-begreifbar-macht/</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/MAL_Muenchen.jpg" length="90195" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/MAL_Muenchen.jpg" fileSize="90195" type="image/jpeg"/><media:description type="plain">Veranstaltung &#039;Erfahrbares Lernen&#039; der LMU.
Veranstaltung im Themenfeld Ausbilden, Lernen und Lehren mit Augmented und Virtual Reality (AR/VR) mit ersten Ergebnissen aus aktuellen BMBF-Projekten.

aufgenommen am 23.10.18 in Muenchen.

Foto und Copyright: Joerg Koch/ LMU
joerg@joergkochfoto.de;
+49-175-1815173;</media:description><media:copyright>Joerg Koch/ LMU
joerg@joergkochfoto.de;
+49-175-1815173;</media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-19075</guid>
                            <pubDate>Tue, 13 Nov 2018 19:53:49 +0100</pubDate>
                            <title>Bildung wird digital</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/bildung-wird-digital</link>
                            
                            <description>Die Informationstour „Erfahrbares Lernen“ präsentierte am 6. November in Bremen Forschungsprojekte, die digitale Technologien mit neuen Lehrkonzepten verbinden.</description>
                            <content:encoded><![CDATA[<p>Die Digitalisierung eröffnet vielfältige Möglichkeiten für neue Konzepte in der Bildung. Multimedia-Tische, Virtual-Reality-Brillen und andere Technologien bieten zahlreiche neue Werkzeuge für Lehrende, um Inhalte interessant und verständlich zu vermitteln. Der Lehrstoff kann mit verschiedenen Sinnen erfahren werden, beispielsweise durch Fühlen und durch Bewegungen. Wie das in Zukunft funktionieren wird, zeigt eine bundesweite Informationstour, die am 6. November in der Bremer Überseestadt Station machte.&nbsp;</p><p>Im Rahmen dieser Tour präsentieren das Bundesministerium für Bildung und Forschung (BMBF) sowie der Projektträger VDI/VDE-IT verschiedene Projekte aus der Förderrichtlinie „Erfahrbares Lernen“. Die Einsatzmöglichkeiten der Ergebnisse decken das gesamte Spektrum ab: Von der Schule über die Hochschule und Ausbildungsstätten bis zu Fort- und Weiterbildungseinrichtungen.&nbsp;</p><p>Die Projekte verfolgen dabei einen umfassenden Ansatz, um den praktischen Nutzen zu gewährleisten. „Parallel zur technischen Entwicklung findet eine begleitende Didaktikforschung statt“, erklärte Prof. Rainer Malaka, Direktor des Technologienzentrums Informatik und Informationstechnik (TZI) an der Universität Bremen. „Auch die soziale Interaktion ist ganz wichtig beim Lernen und fließt daher in die Projekte mit ein.“</p><p><strong>Intelligente Lernsysteme können Aneignung von komplexem Wissen erleichtern</strong></p><p>Das BMBF will mit der Informationstour den Austausch mit Bürgerinnen und Bürgern zu den Projektinhalten fördern. „Die Digitalisierung des Alltags verändert das Lernen“, betonte BMBF-Referatsleiterin Annette Eickmeyer-Hehn. „Durch neue Technologien und Innovationen nehmen die Lerninhalte zu und werden komplexer. Dafür braucht der Mensch mehr spezifisches Wissen. Intelligente Lernsysteme können hier unterstützend eingreifen. Das Bundeministerium für Bildung und Forschung fördert deshalb im Forschungsschwerpunkt Erfahrbares Lernen die Entwicklung einer neuen Generation von Technologien für digitales Lernen. Die Systeme sind interaktiv und können Lerneffekte verbessern – zum Beispiel beim Aneignen abstrakter Theorie in der Mathematik oder beim Einüben schwieriger Handgriffe in technologieintensiven Berufen wie der Medizin.“</p><p><strong>Individuelles Lernen</strong></p><p>Auch Bremens Bildungssenatorin Dr. Claudia Bogedan sieht erhebliches Potenzial in neuen digitalen Technologien für die Bildung. „Unsere Umwelt ist digital“, betonte sie anlässlich des Events der Info-Tour in Bremen. „Die meisten von uns nutzen diverse Geräte, die Arbeitswelt wandelt sich erheblich und rasend schnell. Auch das Lernen wird von Digitalisierung geprägt. Durch realitätsnahe digitale Lernumgebungen werden unter anderem bereits jetzt schon verschiedene Vorgehensweisen simuliert, beispielsweise in der Medizin und der Architektur. Digitale Lernumgebungen ermöglichen auch in der Schule ein individualisiertes und dem Lernfortschritt angepasstes Lernen sowie ein sofortiges Feedback für den Lernenden. Und das gilt nicht nur Schülerinnen und Schüler. Von den äußerst dynamischen Veränderungen sind auch Lehrkräfte, Fachkräfte in Kitas und auch nichtunterrichtendes Personal betroffen. Es ist notwendig, diese aktuellen Lernformen in Fort- und Weiterbildungen einzubinden. Daran arbeiten wir emsig. Mit der vorgelegten KMK-Strategie zur Digitalisierung haben wir die Rahmenbedingungen gesetzt, die jetzt ausgefüllt werden.“</p><p><strong>Mathematik mit allen Sinnen erleben</strong></p><p>Das bremische Projekt „Multimodal Algebra Lernen“ (MAL) soll Mathematik in Zukunft leichter zugänglich machen. Mit diesem Ziel werden unter anderem interaktive Lernelemente entwickelt, die beispielsweise die Zahlen und Variablen in Gleichungen symbolisieren. Sie können mit der Hand neu angeordnet und verändert werden – und sie können Hilfestellungen geben oder signalisieren, wenn die Aufgabe richtig gelöst wurde.&nbsp;</p><p>Auch die Steuerung der Lernsysteme durch Gesten wird erprobt. „Die Forschung in der Didaktik zeigt zunehmend, wie wichtig Gesten für das Verständnis der Mathematik sein können“, berichtet Prof. Angelika Bikner-Ahsbahs von der Universität Bremen. Wissenschaftler des Kompetenzzentrums für Klinische Studien der Universität Bremen und des ifib - Institut für Informationsmanagement Bremen GmbH – einem Forschungsinstitut der Universität – sind an dem interdisziplinären Projekt beteiligt, darüber hinaus auch der Westermann-Verlag und die Firma Ubimax.&nbsp;</p><p>Im Rahmen der Informationstour wurden darüber hinaus interaktive Experimente für das MINT-Studium, ein System für chirurgische Simulationen, eine Lehr-Lern-Umgebung zur Energie- und Ressourceneffizienz sowie weitere Projekte gezeigt. Eine Nachmittagsveranstaltung zum Thema „Digitalisierung in der Bildung“ richtete sich heute in erster Linie an Schulen, Schulklassen und Eltern, während eine Abendveranstaltung unter dem Titel „Neue Technologien für Training und Lernen – Wie Mixed Reality Wissen begreifbar macht“ auch verstärkt Unternehmen ansprach. &nbsp;</p><p><strong>Weitere Informationen:</strong><br><a href="http://www.technik-zum-menschen-bringen.de/service/termine/informationstour-erfahrbares-lernen" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">www.technik-zum-menschen-bringen.de/service/termine/informationstour-erfahrbares-lernen</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/erfahrbares_lernen1.jpg" length="84851" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/erfahrbares_lernen1.jpg" fileSize="84851" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright>Harald Rehling/Uni Bremen</media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-19088</guid>
                            <pubDate>Fri, 16 Nov 2018 12:13:55 +0100</pubDate>
                            <title>Mini-Computer bewährt sich in der Grundschule</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/mini-computer-bewaehrt-sich-in-der-grundschule1</link>
                            
                            <description>Wissenschaftlerinnen des TZI haben untersucht, ob der Einsatz von Calliope-Computern in der Grundschule sinnvoll ist. Die Ergebnisse ihrer Studie wurden jetzt veröffentlicht.</description>
                            <content:encoded><![CDATA[<p>Vor zwei Jahren verkündete die Bundesregierung auf dem „IT-Gipfel“ in Saarbrücken das Ziel, Grundschulen bundesweit mit dem Mini-Computer (Microboard) Calliope auszustatten, um Digitale Bildung zu stärken. Die Initiative stieß nicht nur auf Zustimmung: Kritiker bezweifelten den Nutzen des Programmierunterrichts in diesen Altersstufen, aber auch die praktische Umsetzbarkeit. Um die wichtigsten Fragen zügig zu klären, gab die Telekom-Stiftung eine einjährige Explorationsstudie an der Universität Bremen in Auftrag. Beteiligt waren Prof. Dr. Lydia Murmann aus der Grundschuldidaktik Sachunterricht und die Arbeitsgruppe Digitale Medien in der Bildung (dimeb) vom Technologie-Zentrum Informatik und Informationstechnik (TZI). Die Wissenschaftlerinnen haben nun ihre Ergebnisse vorgelegt: Sie bewerten das Vorhaben weit überwiegend positiv.&nbsp;</p><p><strong>Praktische Einführung in die digitale Gesellschaft</strong></p><p>„Wenn Grundschülerinnen und Grundschüler, die noch wenige Wochen zuvor kaum Erfahrungen in der Nutzung von Laptops beziehungsweise Desktop-Computern hatten, mit Erfolg eine eigene Programmieridee entwickeln und umsetzen können, dann haben sie weit mehr gelernt als die Nutzung eines neuartigen technischen Gerätes“, betonen die Autorinnen der Studie „Calliope mini – Mikrocontroller programmieren im Grundschulunterricht“. Die Schülerinnen und Schüler hätten die Erfahrung gemacht, durch Programmierung ein eigenes Vorhaben umsetzen zu können, und dabei ihre Rolle in der digitalen Gesellschaft erprobt.</p><p>Auf Seiten der Universität Bremen leiteten Professorin Lydia Murmann (Sachunterricht), Professorin Heidi Schelhowe (fächerübergreifende Medienbildung) und Dr. Iris Bockermann (fächerübergreifende Medienbildung) die Studie. Bei der Umsetzung kooperierten sie mit dem LIS - Landesinstitut für Schule und drei Bremer Grundschulen.&nbsp;</p><p><strong>Motivation der Kinder sehr groß</strong></p><p>Eine der Fragestellungen zu Beginn war, ob die Dritt- und Viertklässler schon für den Umgang mit Microcomputern bereit sind. Dies konnte schnell bejaht werden. „Die Kinder sind sehr selbstständig mit den Geräten umgegangen“, berichtet Murmann. Allerdings hätten die einzelnen Schülerinnen und Schüler zu Beginn mit ihrem Verständnis sehr weit auseinander gelegen. Eine Erkenntnis lautet daher, dass vor den Calliope-Lehreinheiten zunächst einige Grundlagen der Medienbildung erarbeitet werden müssen, beispielsweise das Prinzip von Dateien und der Speicherung von Daten.&nbsp;</p><p>Im Rahmen der Studie wurden mit den Lerngruppen verschiedene Anwendungen programmiert, zum Beispiel ein Hüpfzähler, eine Alarmanlage für Schachteln mit Süßigkeiten sowie der Austausch von Nachrichten über das Microboard. „Die Motivation der Kinder war im Vergleich zu anderen Fächern sehr hoch“, erklärt Schelhowe. „Wir wissen noch nicht genau, ob es an der Neuheit lag. Aber wir glauben, dass es viel mit dem praktischen Handeln zu tun hatte.“&nbsp;</p><p><strong>Schnelle Einarbeitung für Lehrkräfte</strong></p><p>Auch die Lehrerinnen und Lehrer seien – teilweise trotz geringen Vorwissens – schnell mit dem Material zurechtgekommen. Schulungen seien notwendig, müssten aber nicht aufwändig sein.&nbsp;</p><p>Aus Sicht der Wissenschaftlerinnen ist es auf jeden Fall sinnvoll, Schülerinnen und Schülern bereits in diesem Alter erste Einblicke in das Programmieren zu ermöglichen, damit sie ein Verständnis für ihre digitale Umwelt entwickeln. „Die Grundschule hat den Anspruch, dass Kinder dort lernen, ihre Lebenswelt zu verstehen“, so Murmann. „Dazu gehören heute digitale Anwendungen.“ Bei den Kindern zeigte sich in der Studie kein Motivationsunterschied zwischen Mädchen und Jungen. Die Wissenschaftlerinnen hoffen, dass erste Erfolgserlebnisse helfen könnten, mehr Mädchen auch für technische Themen zu begeistern.</p><p><strong>Studie steht zum Download bereit</strong></p><p>Die Bremer Explorationsstudie „Calliope mini – Mikrocontroller programmieren im Grundschulunterricht“ kann hier heruntergeladen werden:<br><a href="http://nbn-resolving.de/urn:nbn:de:gbv:46-00106848-17" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">http://nbn-resolving.de/urn:nbn:de:gbv:46-00106848-17</a></p><p>In den kommenden Wochen wird auch eine Lehrerhandreichung mit sechs Unterrichtsmodulen (elf Doppelstunden) veröffentlicht. Sie wird in vier Sprachen erhältlich sein: Deutsch, Englisch, Portugiesisch und Russisch.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/suessigkeitenbox.jpg" length="227437" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/suessigkeitenbox.jpg" fileSize="227437" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright>TZI</media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-19441</guid>
                            <pubDate>Mon, 28 Jan 2019 12:29:13 +0100</pubDate>
                            <title>Mehr Sicherheit für Häfen</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/mehr-sicherheit-fuer-haefen</link>
                            
                            <description>Ein Konsortium unter Beteiligung des TZI entwickelt eine umfassende IT-Sicherheitsarchitektur für die Hafenwirtschaft.</description>
                            <content:encoded><![CDATA[<p>Häfen werden zunehmend durch IT-Systeme gesteuert. Der reibungslose Informationsaustausch zwischen den Hafenakteuren ist dabei von großer wirtschaftlicher Bedeutung – bereits kürzeste Systemausfälle können zu erheblichen finanziellen Schäden führen. Im neuen Projekt SecProPort, das vom Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) mit 2,8 Millionen Euro gefördert wird, entwickelt ein Konsortium aus Industrie und Forschung eine Sicherheitsarchitektur, die der Hafenlogistik einen umfassenden Schutz vor Cyberangriffen bieten soll. Beteiligt ist auch die Arbeitsgruppe Softwaretechnik des TZI unter Leitung von Prof. Rainer Koschke.</p><p>Alle am Hafentransport beteiligten Akteure – unter anderem Terminalbetreiber, Reeder, Spediteure, Betreiber von Hafen-IT, Bahn, Hafenbehörden und Zoll – sind über ihre eigenen IT-Systeme in einem komplexen Kommunikationsverbund miteinander vernetzt. Gelingt es einem Angreifer, diesen Verbund erfolgreich anzugreifen, kann dies zu einem Totalausfall des gesamten Hafenbetriebs führen.&nbsp;</p><p><strong>Schutz vor Sabotage und Spionage</strong></p><p>Im Rahmen von SecPortPro soll die IT-Sicherheitsarchitektur des gesamten Hafenkommunikationsverbunds nun verbessert werden, um ihn vor derlei Angriffen zu schützen. Das Verbundprojekt, das am 1. November 2018 startete, wird vom BMVI im Rahmen des Förderprogramms Innovative Hafentechnologien (IHATEC) über eine Laufzeit von drei Jahren gefördert.&nbsp;</p><p>Die innovative Architektur soll die verschiedenen Sicherheitsanforderungen der Arbeitsprozesse im Netzwerk unterstützen, diese Prozesse vor Sabotage schützen und das Ausspionieren von sensiblen Daten verhindern. Zudem wird die Architektur Resilienz-Maßnahmen bereitstellen, die im Schadensfall die Auswirkungen auf andere Akteure des Verbunds minimieren und das betroffene Netz wieder in den Normalzustand zurückführen sollen.&nbsp;</p><p><strong>Vorarbeiten im Projekt PortSec</strong></p><p>Die Projektpartner können dabei auf den Ergebnissen des kürzlich abgeschlossenen Projekts <a href="https://www.portsec.de/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">PortSec</a> aufbauen. In dessen Rahmen hatte das TZI zusammen mit dem Institut ISL, der dbh AG und der datenschutz cert GmbH die Sicherheit eines Port-Community-Systems untersucht und verbessert. Bei PortProSec sind zusätzlich die DFKI GmbH sowie die Logistikunternehmen BLG Logistics Group AG &amp; Co. KG, Duisburger Hafen AG und Hapag-Lloyd AG mit im Boot.&nbsp;</p><p><strong>Weitere Informationen:</strong><br><a href="http://www.informatik.uni-bremen.de/~sohr/SecProPort/index_d.htm" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">www.informatik.uni-bremen.de/~sohr/SecProPort/index_d.htm</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/secproport.jpg" length="1109736" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/secproport.jpg" fileSize="1109736" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright>Hapag Lloyd AG, Patrick Ludolph</media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-19512</guid>
                            <pubDate>Fri, 08 Feb 2019 17:02:00 +0100</pubDate>
                            <title>IT-Workshops für Mädchen</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/it-workshops-fuer-maedchen</link>
                            
                            <description>Einblicke in IT-Spitzenforschung bietet das BMBF-geförderte smile-Projekt für Schülerinnen von der 5. Klassenstufe bis zum Studieneinstieg.</description>
                            <content:encoded><![CDATA[<p>IT-Berufe liegen im Trend und bieten Zukunftsperspektiven bei überdurchschnittlichen Verdienstmöglichkeiten, allerdings sind Frauen in diesem Bereich wie in anderen MINT-Fächern – Mathematik, Informatik, Naturwissenschaften, Technik – unterrepräsentiert.</p><p>Der Grund: Junge Mädchen und Frauen können sich die Informatik häufig nicht als Berufsfeld vorstellen. Das soll das Projekt smile ändern. In Workshops wie „Meine intelligente Wohnung“, „Meine Roboterfreundin räumt auf“ und „OK Alexa“ sollen Schülerinnen Einblicke in das Berufsfeld Informatik erhalten und ein gutes Verständnis für das Thema entwickeln. Vorkenntnisse sind nicht erforderlich. Die Teilnahme an den Workshops ist kostenlos.</p><p>Workshops (Auswahl):</p><p><strong><a href="https://www.smile-smart-it.de/index.php/meine-roboter-freundin-raeumt-auf/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">Meine Roboterfreundin räumt auf</a> &nbsp;(Bremen)</strong><br> Klassenstufen 7, 8 und 9<br> Ab März 2019, wöchentlich Freitagnachmittags ab 15 Uhr<br> Nie mehr aufräumen? Nicht ganz, aber die Teilnehmerinnen dieses Workshops können sich schon einmal Gedanken machen, wie ein Roboter das für sie erledigen könnte. Dabei erlernen sie erste Programmierschritte und steuern ihren eigenen Roboter.<br> Dieser Workshop findet für ältere Schülerinnen auch noch einmal in den Osterferien statt (Klassenstufen 10 und höher, 15. bis 18. April 2019).</p><p><strong><a href="https://www.smile-smart-it.de/index.php/upgrade-your-room/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">Upgrade Your Room</a> (Oldenburg)</strong><br> Klassenstufen 7 bis 10<br> 11.02. – 11.03.2019, montags von 16.30 bis 19 Uhr<br> Mit Hilfe des Kleincomputers „Calliope mini“ können Teilnehmerinnen ihr Zimmer ganz einfach und schnell interaktiv gestalten. Der Calliope enthält Sensoren, die Veränderungen in der Umgebung messen und auf die das Zimmer reagieren kann. Bei der Gestaltung des Systems ist Kreativität gefragt.<br> Dieser Workshop wird auch als Osterferien-Workshop angeboten (8. bis 12. April 2019 von 10 bis 14.30 Uhr).</p><p><strong><a href="https://www.smile-smart-it.de/index.php/ok-alexa/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">OK Alexa</a> (Bremen)</strong><br> Klassenstufen 9, 10 und 11<br> Di., 9. April bis Fr., 12. April 2019<br> Sprachsteuerungen wie Siri und Alexa umgeben uns im Alltag an vielen Stellen. Doch wie funktioniert so etwas eigentlich? Dies lernen die Teilnehmerinnen im „OK Alexa“-Workshop und entwerfen und programmieren ihr eigenes System.</p><p><strong>Weitere Informationen</strong><br><a href="http://www.smile-smart-it.de" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">www.smile-smart-it.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/smile-foto.jpg" length="63944" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/smile-foto.jpg" fileSize="63944" type="image/jpeg"/><media:description type="plain">In den IT-Workshops des smile-Projekts können Mädchen selbst aktiv werden und Neues ausprobieren. (smile/Universität Bremen)</media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-19541</guid>
                            <pubDate>Mon, 18 Feb 2019 00:10:25 +0100</pubDate>
                            <title>DFG fördert Forschungsprojekt zum Softwareverstehen </title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/dfg-foerdert-forschungsprojekt-zum-softwareverstehen</link>
                            
                            <description>Ein gemeinsames Projekt der Universitäten Bremen und Hamburg untersucht, wie Entwickler sich das Verständnis von Software erarbeiten und wie dieser Prozess unterstützt werden kann. </description>
                            <content:encoded><![CDATA[<p>Immer mehr Bereiche unseres Lebens werden von Software gesteuert – und diese Software wird zunehmend komplexer. Desktopanwendungen benötigen oft rund 10 Millionen Programmzeilen, ein modernes Auto beinhaltet sogar mehr als 100 Millionen Zeilen – ausgedruckt ergäbe das einen Stapel Papier von rund 200 Metern Höhe. Wer mit derartiger Software arbeiten will, muss darin die relevanten Abschnitte finden und verstehen. Um diesen Prozess effizienter zu gestalten, startet das Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen gemeinsam mit der Universität Hamburg am 1. Februar 2019 das Projekt „Empirische Grundlagenforschung zum Programmverstehen in der Softwaretechnik“, das von der Deutschen Forschungsgemeinschaft (DFG) drei Jahre lang mit 600.000 Euro gefördert wird.</p><p>Programmverstehen, also der Wissenserwerb über ein Computerprogramm, bildet die Grundlage für effektive und effiziente Änderungen, Fehlersuche, Wiederverwendung und Dokumentation. Im aktuellen Projekt betreiben die Wissenschaftler unter der Leitung von Prof. Dr. Rainer Koschke (Arbeitsgruppe Softwaretechnik, Universität Bremen) und Prof. Dr. Walid Maalej (Arbeitsgruppe Applied Software Technology, Universität Hamburg) gemeinsam Grundlagenforschung, um die Arbeit in der Softwaretechnik anhand von empirisch fundierten Erkenntnissen besser steuern zu können. Ein Vorläuferprojekt wurde bereits zusammen mit der TU München erarbeitet.</p><p>Ziel der Wissenschaftler ist es, ein umfassendes Verständnis der Prozesse zu gewinnen, die am Programmverstehen maßgeblich beteiligt sind. Dazu zählen unter anderem Verhaltensweisen, Arbeitsmuster und Entscheidungen von Entwicklern. Das Projekt soll Fragen beantworten wie: Welches Wissen wird für das Programmverstehen benötigt? Wie wird fehlendes Wissen beschafft? Und wie wird es effizient angewandt? Um diese und zahlreiche weitere Fragen zu beantworten, verfolgen die Wissenschaftler auch Ansätze, die ihren Ursprung außerhalb der klassischen Informatik haben, beispielsweise im Bereich der Kognitionswissenschaften.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/7/7/csm_binary_code_Christiaan_Colen_flickr_d7332ca187.jpg" length="323983" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/7/7/csm_binary_code_Christiaan_Colen_flickr_d7332ca187.jpg" fileSize="323983" type="image/jpeg"/><media:description type="plain">Bild: Christiaan Colen/flickr</media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-20173</guid>
                            <pubDate>Fri, 10 May 2019 13:23:07 +0200</pubDate>
                            <title>Virtual Reality hilft Kletterern beim Überwinden der Höhenangst</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/virtual-reality-hilft-kletterern-beim-ueberwinden-der-hoehenangst</link>
                            
                            <description>Der Student Peter Schulz hat am TZI ein System entwickelt, das Kletterübungen in größerer Höhe mit virtueller Realität simuliert.</description>
                            <content:encoded><![CDATA[<p>Herzklopfen, Atemnot, Schweißausbrüche und zittrige Knie – die Symptome von Höhenangst sind alles andere als hilfreich, wenn es darum geht, kletternd eine Felswand zu bezwingen. Diese Angst lässt sich jedoch meist überwinden, indem Betroffene sich wiederholt der Situation aussetzen, die ihnen Unwohlsein bereitet. Um den Prozess zu erleichtern, hat der Informatikstudent Peter Schulz im Rahmen seiner Masterarbeit am Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen jetzt ein Virtual-Reality-System (VR) entwickelt. Es simuliert das Klettern in zehn Metern Höhe und erzeugt dabei den gleichen Stress wie die gleiche Situation in der Realität – aber die Anwender können jederzeit aussteigen.&nbsp;<br> &nbsp;<br> In dem Projekt, das von den Professoren Rainer Malaka und Johannes Schöning am TZI betreut wurde, ging es um die Erzeugung möglichst realistischer Eindrücke bei Aktivitäten in der Höhe. Unterstützt wurde Schulz von der lokalen Kletterhalle des Deutschen Alpenvereins. Dort wurde mit Hilfe von Sensoren das Angst- und Stressempfinden in drei verschiedenen Szenarien beobachtet. Probanden kletterten im ersten Fall „normal“ in zehn Metern Höhe. Im zweiten Fall waren sie in niedriger Höhe unterwegs, allerdings trugen sie eine VR-Brille, die zehn Meter Höhe simulierte. Schließlich wurde auch das Klettern ganz unabhängig von der Kletterwand simuliert – nur mit VR-Brille und Controllern, wie sie von Spielkonsolen bekannt sind.&nbsp;</p><p>„Wir konnten beobachten, dass einige Effekte auf Bodenhöhe mit Virtual Reality auftreten, die ohne VR nur in der Höhe stattfinden“, berichtet Schulz. „Dabei wurde ein Stresslevel beim Kletterer erzeugt, das dem des realen Kletterns entspricht.“</p><p>Das ausgelöste Höhengefühl hängt an zwei Faktoren: Der physischen Betätigung beim Klettern und der Virtual Reality, die den Menschen virtuell in die Höhe befördert. „Wir konnten auch zeigen, dass etwas zum Anfassen sehr wichtig ist – also richtige Griffe“, so Schulz. Das Klettern allein mit den Controllern wirkte auf die Anwender weniger realistisch.</p><p>Die TZI-Wissenschaftler planen nun, die Integration der Erkenntnisse in effektive Trainingspläne für Kletterer zu untersuchen. Dafür sollen Tests mit Sportlern durchgeführt werden.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/VR-Klettern.jpg" length="90227" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/VR-Klettern.jpg" fileSize="90227" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-20353</guid>
                            <pubDate>Mon, 03 Jun 2019 12:57:36 +0200</pubDate>
                            <title>Erweiterte Realität und 3D-Druck für die Chirurgie</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/erweiterte-realitaet-und-3d-druck-fuer-die-chirurgie</link>
                            
                            <description>Ein Verbund unter Leitung der Universität Bremen kombiniert Virtual Reality, Augmented Reality und 3D-Druck, um die Planung und Durchführung von Operationen zu verbessern. </description>
                            <content:encoded><![CDATA[<p>Neue Informationstechnologien können helfen, Chirurginnen und Chirurgen im Operationssaal wichtige Informationen bereitzustellen und damit die Erfolgsaussichten des Eingriffs spürbar zu erhöhen. Ein Forschungsverbund unter Leitung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen entwickelt zurzeit beispielhafte Verfahren und Anwendungen, um die Planung und Durchführung einer Operation durch den Einsatz von Virtual Reality (VR), Augmented Reality (AR) und 3D-Druck zu verbessern. Die Ergebnisse sollen zusätzlich für Trainingszwecke und für die Patienteninformation eingesetzt werden. Das Projekt VIVATOP („Vielseitiger Immersiver Virtueller und Augmentierter Tangible OP“) wird über eine Laufzeit von drei Jahren mit insgesamt 2,2 Millionen Euro vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.</p><p><strong>Präoperative Planung</strong></p><p>Die Planung einer Operation mit 3D-Modellen bietet erhebliche Vorteile gegenüber den bislang verbreiteten 2D-Bildern. Ärztinnen und Ärzte erhalten einen wesentlich realistischeren und besser begreifbaren Überblick über den Bereich, in dem sie einen Eingriff vornehmen wollen. Parallel zu den dreidimensionalen Computermodellen wird im Rahmen von VIVATOP auch die Bereitstellung lebensechter physischer Modelle des betroffenen Organs erprobt. Dafür werden die Bilddaten analysiert und aufbereitet, sodass sie in einen 3D-Drucker importiert werden können, um beispielsweise die Leber einer Patientin realitätsnah anzufertigen.&nbsp;</p><p>Diese gedruckten Modelle ermöglichen der Ärztin oder dem Arzt die haptische Erfahrung des individuellen Organs, also die Nutzung des Tastsinns, aber sie lassen sich auch gemeinsam mit den virtuellen Modellen einsetzen. So kann jemand das physische Modell in den Händen halten und erklärend gestikulieren, während alle Beteiligten auf der VR-Brille die Gesten in Verbindung mit dem hochdetaillierten Computermodell sehen. Diese Bedienungsweise entspricht eher den natürlichen Gewohnheiten als der Umgang mit Controllern, wie sie bei Spielkonsolen zur Steuerung von Bewegungen eingesetzt werden.&nbsp;</p><p>Die 3D-Drucke, die sowohl transparent als auch mehrfarbig sein können, erleichtern unterdessen nicht nur die Planung, sondern ermöglichen es dem Ärzte-Team auch, den Patientinnen und Patienten das Vorgehen bei den Eingriffen anschaulicher zu erklären. &nbsp;</p><p><strong>Intraoperative Unterstützung</strong></p><p>Während der Operation helfen Bilddaten und Modelle des Organs den Ärztinnen und Ärzten, sich zu orientieren und Entscheidungen zu treffen. Dazu erweitert das VIVATOP-Team eine vorhandene Augmented-Reality-Anwendung („erweiterte Realität“), mit der die relevanten Informationen im Sichtfeld einer Brille angezeigt werden. Über die Sprachsteuerung können Chirurginnen und Chirurgen das Gerät bedienen, ohne die Hände einsetzen zu müssen. Gleichzeitig besteht die Möglichkeit, die Operation live in VR darzustellen, damit externe Expertinnen und Experten außerhalb des Operationssaals interaktiv hinzugezogen werden können („remote, kollaborative, immersive Chirurgie-Konsultation“). Mit Hilfe von Tiefenkameras, Sensoren und weiteren Technologien werden dabei die Handbewegungen des Ärzte-Teams sowie die Eingriffe am operierten Organ aufgezeichnet und in VR dargestellt. Parallel können in der VR auch die Planungsdaten angezeigt werden. So unterstützt das System per Telepräsenz die weltweite Zusammenarbeit von Fachleuten bei einer Operation.&nbsp;</p><p><strong>Training und Ausbildung</strong><br> &nbsp;<br> Mit der Integration von AR, VR und 3D-Druck kann darüber hinaus die Aus-, Fort- und Weiterbildung junger Ärztinnen und Ärzte effizienter gestaltet werden. Konkrete Fälle können anhand der 3D-Bilddaten erörtert und in der virtuellen Realität präzise nachvollzogen werden. Die ausgedruckten 3D-Modelle erlauben jungen Ärzten und Ärztinnen, wertvolle erste Erfahrungen zu sammeln. So können sie beispielsweise lernen, einen Tumor in verschiedenen Entwicklungsstadien zu ertasten („haptisches Feedback“), und die Lage anschließend in einer VR-Umgebung begutachten. Außerdem können einzelne Operationsschritte in virtuellen Szenarien trainiert werden. &nbsp;</p><p><strong>Verbund aus Wissenschaft, Wirtschaft und Gesundheitswesen</strong></p><p>Das Projekt VIVATOP wird am TZI der Universität Bremen von der Arbeitsgruppe Digitale Medien (Prof. Dr. Rainer Malaka) koordiniert und von der Arbeitsgruppe Virtual Reality und Computergraphik (Prof. Dr. Gabriel Zachmann) unterstützt. Diese Teams sind in erster Linie für die VR-Interaktion bzw. die VR-Algorithmen zuständig. Das Pius Hospital Oldenburg/Universitätsklinikum für Viszeralchirurgie liefert die klinische Expertise und generiert die Bilddaten. Das Fraunhofer-Institut für Digitale Medizin MEVIS erstellt daraus virtuelle realistische Organ-Modelle für AR/VR und den 3D-Druck, während die apoQlar GmbH als Spezialistin im Bereich Augmented Reality und die cirp GmbH für den 3D-Druck eingebunden sind. Die szenaris GmbH verantwortet den Bereich Training und Ausbildung. Der Projektabschluss ist für September 2021 vorgesehen.&nbsp;</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/hand_gross2.png" length="1455022" type="image/png"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/hand_gross2.png" fileSize="1455022" type="image/png"/><media:description type="plain">Quelle: Digital Media Lab/TZI</media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-20800</guid>
                            <pubDate>Mon, 19 Aug 2019 15:50:55 +0200</pubDate>
                            <title>Hüftoperationen in der virtuellen Realität trainieren</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/hueftoperationen-in-der-virtuellen-realitaet-trainieren</link>
                            
                            <description>Erstmals hat ein Forschungsverbund einen Simulator für einen besonders kritischen Schritt bei der Implantation von Hüftgelenken entwickelt: das Ausfräsen der Hüftpfanne.</description>
                            <content:encoded><![CDATA[<p>Mehr als 200.000 Menschen pro Jahr erhalten in Deutschland eine Hüftprothese. Der Erfolg der Operationen hat für die Betroffenen großen Einfluss auf die Lebensqualität, allerdings ist der Eingriff oft schwierig. Das rund dreijährige Projekt „HüftImplantatPfannenfräsSimulator“ (HIPS), das vom Bundesministerium für Wirtschaft und Energie (BMWi) mit insgesamt rund 670.000 Euro gefördert wurde, erleichtert nun die Vorbereitung junger Chirurginnen und Chirurgen auf die Durchführung von Hüft-OPs: Eine Virtual-Reality-Simulation ermöglicht es unter Einbindung eines Leichtbauroboters, den Eingriff realitätsnah zu üben.&nbsp;</p><p>Koordiniert wurde das Projekt, das im April 2019 abgeschlossen wurde, von der Professur Werkzeugmaschinenkonstruktion und Umformtechnik der Technischen Universität Chemnitz. Das Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen brachte wissenschaftliche Kompetenz aus dem Bereich Virtual Reality ein. Aus der Wirtschaft waren die FAKT Software GmbH (Leipzig) und die CAT PRODUCTION GmbH (München) dabei.&nbsp;</p><p><strong>Roboter sorgt für realistisches Gefühl beim Fräsen</strong></p><p>Im Fokus des Projekts stand das Ausfräsen der Hüftpfanne. Das Implantat muss möglichst genau in die Pfanne passen, um Komplikationen zu vermeiden und die Lebensdauer der Prothese zu maximieren. Die Aufgabe ist jedoch schwierig, denn sie erfordert viel Kraft und gleichzeitig größtmögliche Präzision – wobei die zu bearbeitende Stelle für die Chirurgin oder den Chirurgen kaum sichtbar ist. Bis jetzt war es kaum möglich, diese Situation unter realitätsnahen Bedingungen zu üben.</p><p>Das System „HIPS“ hat hier Abhilfe geschaffen. Anwenderinnen und Anwender sehen auf der VR-Brille die Hüfte des virtuellen Patienten und bedienen gleichzeitig die Fräse, die an einen Roboter angeschlossen ist. Der Roboter liefert dabei realitätsgetreues haptisches Feedback, indem er beispielsweise beim virtuellen Fräsen den gleichen Widerstand leistet, den der Knochen aufweisen würde. Die Wissenschaftler haben dafür den Fräsprozess genau vermessen und entsprechende Algorithmen entwickelt. Die FAKT Software GmbH hat sämtliche Softwaremodule in eine interaktive Anwendung integriert, die mit der 3D-Anatomie der CAT PRODUCTION GmbH interagiert.&nbsp;</p><p>Auf medizinischer Seite wird die Entwicklung von der Klinik für Orthopädie, Unfallchirurgie und Plastische Chirurgie des Universitätsklinikums Leipzig, dem Zentrum zur Erforschung der Stütz- und Bewegungsorgane (ZESBO), der Forschungsgruppe für klinische Anatomie der University of Otago (Neuseeland) sowie der Medizintechnik-Abteilung des Fraunhofer Instituts für Werkzeugmaschinen und Umformtechnik (IWU) begleitet.</p><p><strong>Projekt mit DIVR Award 2019 ausgezeichnet</strong></p><p>Mit der erfolgreichen Umsetzung des Vorhabens hat das Projektkonsortium kürzlich auch die Jury des Deutschen Instituts für Virtual Reality (DIVR) überzeugt. Das Institut verlieh „HIPS“ den DIVR Award 2019 in der Kategorie „best tech“. Die Jury lobte die hervorragende Qualität, den hohen technologischen Innovationsgrad und den gesellschaftlichen Impact der Virtual-Reality-Simulation.</p><p>Aktuell planen die Akteure die Weiterentwicklung des Systems, um weitere Operationsschritte abbilden zu können. Dann sollen angehende Chirurginnen und Chirurgen auch das Abtrennen des Hüftgelenkkopfes, das Ausschaben des Oberschenkelknochens und die Implantation des Kunstgelenkes in der virtuellen Realität trainieren können.</p><p><strong>Weitere Informationen:</strong></p><p>Projekt-Website:<br><a href="https://cgvr.cs.uni-bremen.de/research/hips/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://cgvr.cs.uni-bremen.de/research/hips/</a></p><p>Kurzportrait des Projekts HIPS auf YouTube:<br><a href="https://youtu.be/SoJRZl-V0bs" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://youtu.be/SoJRZl-V0bs</a></p><p>Ausführlicheres Video:<br><a href="https://youtu.be/1IcaxkOg9Vw" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://youtu.be/1IcaxkOg9Vw</a><br> &nbsp;</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/HIPS_1_web.jpg" length="98468" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/HIPS_1_web.jpg" fileSize="98468" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-20821</guid>
                            <pubDate>Mon, 26 Aug 2019 15:49:21 +0200</pubDate>
                            <title>TZI erforscht Einsatz von Chatbots im Bremer Bürgerservice</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/tzi-erforscht-einsatz-von-chatbots-im-bremer-buergerservice0</link>
                            
                            <description>Künstliche Intelligenz könnte in Zukunft helfen, Bürgerfragen rund um die Uhr zu beantworten: Der Senator für Finanzen beauftragt das TZI mit der Erforschung eines Chatbots.</description>
                            <content:encoded><![CDATA[<p>Ein Telefon führen inzwischen die meisten Menschen jederzeit mit sich, aber zum Telefonieren wird es eher selten benutzt. Dafür ist gerade bei den jüngeren Generationen die Kommunikation mit kurzen Texten sehr beliebt – in Dialogform auch „Chat“ genannt. Viele Unternehmen und Organisationen setzen Chats daher bereits im Kundenkontakt via Internet ein. Der Senator für Finanzen geht gleich einen Schritt weiter und beauftragt das Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen mit der Erforschung eines sogenannten Chatbots, der Künstliche Intelligenz einsetzt, um Fragen automatisch zu beantworten.</p><p><strong>Chatbot ist rund um die Uhr erreichbar</strong></p><p>Konkret geht es bei dem Projekt um die Beantwortung von häufig gestellten Fragen zu Dienstleistungen, beispielsweise zur Ausstellung eines Personalausweises. Dabei wird das Anfrageverhalten der Nutzer anonym dokumentiert, analysiert und aufbereitet, um den Bürgerservice optimieren zu können. Die Mitarbeiterinnen und Mitarbeiter des Bürgertelefons werden von Anfang an mit Workshops in das Projekt eingebunden.&nbsp;</p><p>„Wir möchten den Service für die Bürgerinnen und Bürgern mit einem zusätzlichen Informationskanal verbessern“, erklärt Finanzstaatsrat Henning Lühr. „Der Vorteil: Der Chatbot ist rund um die Uhr erreichbar. Das bewährte Angebot des Bürgertelefons Bremen bleibt erhalten.“&nbsp;</p><p><strong>Technologie wurde bereits ausgezeichnet</strong></p><p>Die Wissenschaftlerinnen und Wissenschaftler der Universität Bremen setzen bei dem Projekt auf die IDA Chatbot Technologie, die von Nina und Dirk Wenig am TZI entwickelt und im vergangenen Jahr mit dem Innovationspreis „Campusideen 2018“ ausgezeichnet wurde. IDA kann sich mit Hilfe von maschinellen Lernverfahren (ML) weitgehend selbst trainieren, indem beispielsweise Informationen von Websites oder Broschüren analysiert werden. „Das System bietet aber auch die Möglichkeit, das erworbene Wissen gezielt zu kontrollieren und zu erweitern – dazu stellt es die gelernten Zusammenhänge übersichtlich und verständlich auf einer Website dar“, erläutert Nina Wenig. „So wird unter anderem vermieden, dass der Chatbot sich eigenständig Antworten aneignet, die im Umgang mit den Kunden unerwünscht wären.“ &nbsp;</p><p>Nina und Dirk Wenig haben die IDA Chatbot Technologie so konzipiert, dass sie sich mit vergleichsweise geringem Aufwand für unterschiedliche Zwecke einsetzen lässt. Bis zum Ende dieses Jahres wollen sie ein Unternehmen gründen, dass die Innovation weiterentwickelt und vermarktet.&nbsp;</p><p><strong>Weitere Informationen:&nbsp;</strong><br><a href="https://idabot.net/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://idabot.net/</a></p><p>Lesen Sie über Nina und Dirk Wenig auch einen Beitrag im aktuellen Jahrbuch der Universität Bremen:&nbsp;<br><a href="https://www.uni-bremen.de/de/jahrbuch/transfer-weiterdenken/dr-nina-wenig-dr-dirk-wenig/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster">https://www.uni-bremen.de/de/jahrbuch/transfer-weiterdenken/dr-nina-wenig-dr-dirk-wenig/​​​​​​​</a>​​​​​​​</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/Nina_und_Dirk_Wenig_Copyright_GfG_Universitaet_Bremen.jpg" length="154968" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/Nina_und_Dirk_Wenig_Copyright_GfG_Universitaet_Bremen.jpg" fileSize="154968" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-21261</guid>
                            <pubDate>Fri, 25 Oct 2019 12:40:40 +0200</pubDate>
                            <title>EU-Projekt: Virtual-Reality für Theater- und Filmproduktionen</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/eu-projekt-virtual-reality-fuer-theater-und-filmproduktionen</link>
                            
                            <description>Mit Hilfe von Virtual-Reality-Anwendungen können Film- und Theaterschaffende Szenenrealitätsnah planen. Die Technologie wurde unter Leitung der Universität Bremen im Projekt „first.stage“ entwickelt. Die EU hat das Vorhaben mit insgesamt rund drei Millionen Euro gefördert.</description>
                            <content:encoded><![CDATA[<p>Die Planung eines Theaterstücks, einer Filmproduktion oder eines Animationsfilms ist aufwändig und kostspielig: Zahlreiche Ideen werden entwickelt, getestet und oftmals wieder verworfen. Wenn die eigentliche Produktion startet, müssen viele Details dennoch neu gestaltet werden, weil sie in der Realität anders wirken als in der vorgeschalteten Prävisualisierungsphase („Previs“) erhofft. Im Rahmen des EU-Projekts „first.stage“ haben acht Partner nun eine Virtual-Reality-Anwendung entwickelt, die diese Previs-Phase spürbar erleichtert. „Eine umfassende Evaluation der Projektergebnisse hat gezeigt, dass Virtual Reality (VR) den Kreativschaffenden in allen untersuchten Bereichen helfen kann, Zeit und Kosten zu sparen“, erläutert Thomas Münder, der das Projekt am Technologie-Zentrums Informatik und Informationstechnik (TZI) betreut.</p><p>Die Software, die unter Leitung des TZI der Universität Bremen entwickelt wurde, wird nun vom britischen Projektpartner Moviestorm zur Marktreife geführt und soll 2020 in einer Testversion verfügbar sein. Parallel dazu haben die TZI-Wissenschaftler das Projekt genutzt, um die intuitive Interaktion von Anwendern mit VR-Technologien zu erforschen. &nbsp; &nbsp;</p><p><strong>System ohne Vorkenntnisse nutzbar</strong></p><p>Das Projektkonsortium hat zahlreiche Prototypen von Funktionen entwickelt und im first.stage-System zusammengeführt. Zu den zentralen Funktionalitäten zählt das Importieren von Objekten, Personen oder Fahrzeugen, die sich in der virtuellen Welt zu der gewünschten Szene zusammenstellen und animieren lassen. Die Anwender können auch special effects (Trickeffekte) wie Explosionen, Feuer oder bewegte Gewässer mit geringem Aufwand einbauen. „Das System ist darauf ausgelegt, dass es auch von Personen ohne Programmierkenntnisse leicht genutzt werden kann“, erklärt Münder..&nbsp;</p><p>Am Landestheater Linz, das die VR-Lösung bei der Umsetzung von fünf Produktionen getestet hat, zählte beispielsweise ein Beleuchter zu den intensivsten Nutzern. first.stage ermöglicht ihm, das Bühnenbild in der virtuellen Welt zu erzeugen und dabei auch verschiedenste Lichtfarben und Beleuchtungswinkel auszuprobieren, um die gewünschte Stimmung zu erzeugen. Dies spart viel Zeit, in der die reale Bühne für andere Proben genutzt werden kann – ein erheblicher Gewinn für große Theater, an denen die Bühnen durchgehend ausgebucht sind.&nbsp;<br> &nbsp;<br> Für Filmproduzenten wie den Projektpartner Vogel Audiovision liegt der Reiz von first.stage zum einen darin, dass die Beteiligten bereits vorab gemeinsam Szenen entwerfen können, auch wenn sie sich geografisch weit voneinander entfernt befinden. Zum anderen hilft die realistische Vorab-Visualisierung aber auch, die Abläufe beim tatsächlichen Drehtermin zu beschleunigen, weil weniger Überraschungen drohen. Das System erlaubt es beispielsweise, unterschiedlichste Kameraperspektiven zu testen und in der virtuellen Realität reale Filmsequenzen aufzunehmen. Regisseurinnen und Regisseure können diese Sequenzen nutzen, um ihren Teams zu verdeutlichen, worauf es ihnen ankommt.&nbsp;</p><p>Auch das Animationsstudio arx anima berichtete in der Evaluation von sehr guten Erfahrungen. Besonderes Potenzial wird dort in der Möglichkeit gesehen, viele kreative Ideen in kurzer Zeit auszuprobieren und ihre Wirkung zu testen. Dieser Arbeitsschritt kann mit first.stage deutlich schneller bewältigt werden als bisher.&nbsp;</p><p><strong>Wissenschaftler untersuchen intuitives Verhalten in der virtuellen Realität</strong></p><p>Das TZI legte den wissenschaftlichen Schwerpunkt auf die Frage, wie VR-Technologien gestaltet werden können, damit auch ungeübte Nutzerinnen und Nutzer so gut wie möglich unterstützt werden. Ein erfolgreicher Ansatz: „Die Testpersonen fanden sich besonders schnell zurecht, wenn sie die Szenen mit Hilfe realer Objekte bauen konnten – vergleichbar mit einem Puppenhaus. Eine reale Legofigur kann in der VR-Welt beispielsweise eine fiktive Person darstellen, die der first.stage-Nutzer mit der Hand greift und an die gewünschte Position stellt, wobei er die Szene mit der VR-Brille betrachtet“, so Münder.&nbsp;</p><p>Neben den genannten Projektpartnern waren auch die Firmen Next Limit Technologies, Rokoko und Info Consult an first.stage beteiligt. Aktuell ist eine Weiterentwicklung des Systems um Funktionalitäten aus den Bereichen Künstliche Intelligenz und Erweiterte Realität (Augmented Reality) im Gespräch.</p><p><strong>Weitere Informationen:</strong><br> Zur Forschung und den Ergebnissen: <a href="http://first-stage.eu" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">http://first-stage.eu</a><br> Zur Produktentwicklung: <a href="https://first-stage.moviestorm.co.uk" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://first-stage.moviestorm.co.uk</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/d/b/csm_firststage4_0384f098bf.jpg" length="172708" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/d/b/csm_firststage4_0384f098bf.jpg" fileSize="172708" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-22118</guid>
                            <pubDate>Tue, 11 Feb 2020 14:31:58 +0100</pubDate>
                            <title>Auszeichnung für Prof. Rainer Koschke und Dr. Thilo Mende</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/auszeichnung-fuer-prof-rainer-koschke-und-dr-thilo-mende</link>
                            
                            <description>Zwei Softwaretechniker der Universität Bremen erhalten den „Most Influential Paper Award“ bei der Konferenz SANER 2020 in London (Kanada). Sie werden für die Verbesserung der Evaluation von Modellen zur Vorhersage von Softwarefehlern ausgezeichnet.</description>
                            <content:encoded><![CDATA[<p>Software ist mittlerweile oft derart komplex, dass es unmöglich ist, alle Fehler vorab zu finden und zu beheben. Zwei Softwaretechniker der Universität Bremen, Prof. Dr. Rainer Koschke und sein ehemaliger Doktorand Dr. Thilo Mende, haben jedoch geholfen, die Suche deutlich effizienter zu gestalten. Vor zehn Jahren präsentierten sie auf der Messe SANER 2010 in Madrid neue Ideen, die eine bessere Beurteilung von Vorhersagemodellen für Softwarefehler ermöglichen. Aufgrund der nachhaltigen Resonanz wird ihr Artikel „Effort-Aware Defect Prediction Models“ am 20. Februar auf der SANER 2020 in London (Kanada) mit dem „Most Influential Paper Award“ (Auszeichnung für den einflussreichsten Beitrag) ausgezeichnet.</p><p>Bei SANER handelt es sich um die Internationale Konferenz für Software-Analyse, -Evolution und -Reengineering des renommierten Fachverbands IEEE. Koschke und Mende stellten in ihrem Beitrag neue Ansätze für die Erstellung und Evaluierung von Vorhersagemodellen für Software-Fehler vor. Solche Modelle werden bereits seit langem eingesetzt, um zu ermitteln, welche Komponenten einer Software besonders fehleranfällig sind und daher genauer unter die Lupe genommen werden sollten. Da eine Vielzahl dieser Modelle existiert, wurden mittlerweile auch verschiedene Verfahren entwickelt, die ihre Praxistauglichkeit bewerten und vergleichbar machen sollen. &nbsp; &nbsp;</p><p>Die Bremer Softwaretechniker legten auf der Konferenz dar, warum die damals bestehenden Evaluationsverfahren noch nicht weit genug gingen: Wichtig sei auch die Abschätzung des Aufwands, die eine Überprüfung der jeweiligen Softwarekomponenten voraussichtlich verursachen wird. Wenn dieser Aufwand bereits während der Modellbildung berücksichtigt wird, sind die Vorhersageergebnisse signifikant besser und bieten somit ein besseres Kosten-Nutzen-Verhältnis.</p><p>Mittlerweile werden ihre Ideen zunehmend bei der Evaluation berücksichtigt, daher hat die Jury sich mit großer Mehrheit für den Bremer Beitrag als Most Influential Paper (MIP) entschieden. Für Koschke ist es bereits der zweite Preis dieser Art: 2011 erhielt er einen MIP Award für einen Beitrag bei der IEEE International Conference on Software Maintenance (ICSM). Mende ist inzwischen am Softwareunternehmen kumi health beteiligt, das Anwendungen für klinische Teams anbietet, und verantwortet dort die Technologie.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/rainerkoschke_k.jpg" length="1062366" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/rainerkoschke_k.jpg" fileSize="1062366" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-22522</guid>
                            <pubDate>Mon, 06 Apr 2020 12:30:56 +0200</pubDate>
                            <title>Virtueller Roboterschwarm auf dem Mars</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/virtueller-roboterschwarm-auf-dem-mars</link>
                            
                            <description>
TZI-Wissenschaftler haben 40 Quadratkilometer Marslandschaft in der virtuellen Realität rekonstruiert. Das Testumfeld ermöglicht die Simulation von Robotermissionen unter den Umweltbedingungen des Mars.</description>
                            <content:encoded><![CDATA[<p>Die umfassende Erforschung des Mars zählt zu den wichtigsten Zielen der internationalen Raumfahrt in den kommenden Jahrzehnten. Um Menschen dabei nicht in Gefahr zu bringen, sollen Roboter eine Vielzahl von Aufgaben übernehmen. Damit deren Einsatz in der fremden Umgebung getestet und das Zusammenspiel von weitgehend autonomen Roboterschwärmen realistisch simuliert werden kann, haben Wissenschaftlerinnen und Wissenschaftler des Technologie-Zentrums Informatik und Informationstechnik (TZI) an der Universität Bremen unter Leitung von Professor Gabriel Zachmann jetzt ein virtuelles Testumfeld entwickelt. Rund 40 Quadratkilometer des Canyon-Systems „Valles Marineris“ auf dem Mars stehen nun für die Vorbereitung künftiger Missionen in der virtuellen Realität (VR) zur Verfügung.&nbsp;</p><p><strong>Suche nach Rohstoffen und extraterrestrischem Leben</strong></p><p>Im Rahmen des Projekts VaMEx-VTB („Valles Marineris Explorer - Virtual TestBed“) hat die Arbeitsgruppe von Professor Zachmann die „Mariner-Täler“ auf der Basis von Scans der NASA nachgebildet. „Die Region wurde ausgewählt, weil dort Rohstoffe vermutet werden, die für spätere bemannte Missionen und menschliche Siedlungen auf dem Planeten nützlich wären“, sagt Professor Zachmann. Darüber hinaus bestehe die Möglichkeit, Hinweise auf extraterrestrisches Leben zu finden, denn die Bedingungen für die Entstehung von Mikroorganismen könnten zumindest in der Vergangenheit – als der Mars klimatisch noch weniger lebensfeindlich war – gut gewesen sein. &nbsp;</p><p>Weil das Terrain in den Canyons sehr vielfältig ist, werden für die Erkundung auch Roboter mit unterschiedlichen Stärken benötigt – einige können beispielsweise klettern, andere fliegen oder Nutzlasten transportieren. Zusätzlich muss ein Netzwerk aus kleinen, Funk-basierten „Leuchttürmen“ („Beacons“) errichtet werden, damit die Roboter jederzeit ihre Position bestimmen können.</p><p><strong>Hohe Anforderungen an die Software</strong></p><p>Die TZI-Software ermöglicht es, das komplexe Zusammenspiel zwischen den Robotern unter Berücksichtigung aller Besonderheiten des Planeten – beispielsweise Schwerkraft, Bodenbeschaffenheit und extreme Temperaturen – zu simulieren. „Dafür mussten zunächst enorme Datenmengen verarbeitet werden, damit eine realistische, dreidimensionale Darstellung der Landschaft entsteht“, so Zachmann. Eine Herausforderung lag auch in der Anbindung der unterschiedlichen Roboter-Softwaresysteme, damit der Austausch von Informationen möglich wird.</p><p>Das System hat sich bereits bei den ersten Tests bewährt. Die Forschenden haben bemerkt, dass Roboter auf dem Mars andere Algorithmen benötigen als auf der Erde, um ihre Position bestimmen zu können. Dies liegt unter anderem an den sehr eintönigen Farben des Geländes, die es schwierig machen, landschaftliche Wiedererkennungsmerkmale zu identifizieren. Genau in derartigen Erkenntnissen liegt der größte Nutzen der Simulation: Fehler können behoben werden, bevor die Roboter eines Tages ihre achtmonatige Reise zum Mars antreten. Die Chance, dass vor Ort dann alles funktioniert wie geplant, steigt erheblich.</p><p><strong>Bundesweite Kooperation</strong></p><p>Das Projekt VaMEx-VTB wurde vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) mit Mitteln des Bundesministeriums für Wirtschaft und Energie (BMWi) gefördert. Als Auftragnehmer der Universität Bremen waren dabei: das Robotics Innovation Center des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI GmbH, Bremen), Universität der Bundeswehr (München), TU München, TU Braunschweig, DLR Oberpfaffenhofen und Uni Würzburg.&nbsp;</p><p><strong>Weitere Informationen:</strong></p><p><a href="https://cgvr.informatik.uni-bremen.de/research/vamex-vtb/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">https://cgvr.informatik.uni-bremen.de/research/vamex-vtb/</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/OrbiterViz_k.jpg" length="80285" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/2018/OrbiterViz_k.jpg" fileSize="80285" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-26262</guid>
                            <pubDate>Tue, 20 Jul 2021 10:55:03 +0200</pubDate>
                            <title>Hohe Bereitschaft zur Spende von Gesundheitsdaten</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/hohe-bereitschaft-zur-spende-von-gesundheitsdaten-1</link>
                            
                            <description>In der Pandemie sind viele Menschen bereit, ihre Gesundheitsdaten für die Forschung zur Verfügung zu stellen. Das ist ein wichtiges Ergebnis einer aktuellen TZI-Studie.</description>
                            <content:encoded><![CDATA[<p>Mehr als 500.000 Menschen haben die Corona-Datenspende-App des Robert-Koch-Instituts bislang heruntergeladen, die eine frühzeitige Identifikation von Covid-19-Hotspots ermöglichen soll. Die Bereitschaft, persönliche Gesundheitsdaten für die wissenschaftliche Auswertung zur Verfügung zu stellen, erwies sich dabei als überraschend hoch. Die Arbeitsgruppe Mensch-Technik Interaktion am Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen hat die Motivation der Nutzerinnen und Nutzer untersucht, indem sie mehr als 10.000 Erfahrungsberichte auswertete und ausführliche individuelle Befragungen von Usern durchführte. &nbsp;</p><p>Entgegen bisherigen Erfahrungen mit anderen Projekten aus der Gesundheitsforschung geben die App-Nutzer auch dann ihre Daten für die Forschung frei, wenn sie keinen direkten Nutzen für sich selbst sehen. Offenbar genügt in diesem Fall der Anreiz, einen Beitrag zur Bewältigung eines großen gesellschaftlichen Problems zu leisten. Während den meisten Nutzerinnen und Nutzern das Ziel der App – die frühzeitige Erkennung von Corona-Hotspots – bewusst war, konnten sie den persönlichen Wert ihrer Datenspende nicht nachvollziehen. Das Forschungsteam schließt daraus, dass für die Nutzerinnen und Nutzer das Gemeinwohl die vorherrschende Motivation war. Viele Anwenderinnen und Anwender ließen sich auch nicht von technischen Problemen entmutigen, die einen negativen Einfluss auf die Erfahrung hatten. Sie warteten auf Fehlerbehebungen und unterstützten sich gegenseitig. Einige äußerten sogar Unverständnis, warum sie nicht noch zusätzliche persönliche Daten eingeben können, die ihnen für das Projekt nützlich erscheinen.</p><p><strong>Lehren für zukünftige Projekte der wissenschaftlichen Bürgerbeteiligung</strong></p><p>Für künftige vergleichbare Projekte, die auf Datenspenden von Bürgerinnen und Bürgern für das Gemeinwohl setzen, heben die Forscherinnen und Forscher die Bedeutung von Kommunikation, Transparenz und Verantwortung hervor. „Bewährt hat sich zum Beispiel die Unterstützung der Corona-Datenspende-App durch die Bundesregierung und das Robert-Koch-Institut“, erklärt Professor Johannes Schöning. Es sei ratsam, dass offizielle Institutionen solche Projekte der wissenschaftlichen Bürgerbeteiligung („citizen science“) aktiv unterstützen und ihren Nutzen für die Gesellschaft klar kommunizieren.</p><p>Um den persönlichen Anteil aller einzelnen Teilnehmenden und ihre direkten Vorteile zu verdeutlichen, sollten Informationen allerdings auch auf individueller Ebene kommuniziert werden, beispielsweise durch regelmäßige Benachrichtigungen in der App. Auch der Aufbau einer Community, die sich bei Fragen gegenseitig unterstützt, ist nach Angaben der TZI-Wissenschaftlerinnen und Wissenschaftler ratsam. Um technische Probleme zu vermeiden und die Entwicklung zu beschleunigen, sollten vorhandene Gesundheits-Apps genutzt und durch krisenspezifische Technologien ergänzt werden. So ist die Corona-Datenspende-App beispielsweise mit verschiedenen Firness-Apps verbunden.</p><p>„Wir glauben, dass unsere Ergebnisse auf Projekte übertragbar sind, die unter vergleichbaren Bedingungen durchgeführt werden“, sagt Schöning, „zum Beispiel, wenn staatliche Akteure großflächige Gesundheitskrisen bekämpfen müssen.“</p><p>Gefördert wurde die Studie von der Lichtenbergprofessur der Volkswagenstiftung, dem BMWi-Netzwerk KI-SIGS, dem BMBF-Projekt InviDas und dem Leibniz WissenschaftsCampus Digital Public Health Bremen.</p><p>&nbsp;</p><p>&nbsp;</p><p><strong>Weitere Informationen:</strong></p><p><a href="https://arxiv.org/abs/2101.04913" target="_blank" rel="noreferrer">arxiv.org/abs/2101.04913</a></p><p><strong>Fragen beantwortet:</strong></p><p>Prof. Dr. Johannes Schöning<br> Technologie-Zentrum Informatik und Informationstechnik (TZI)<br> Universität Bremen</p><p>Telefon: +49 218-63591</p><p>E-Mail: <a href="#" data-mailto-token="ocknvq,uejqgpkpiBwpk/dtgogp0fg" data-mailto-vector="2">schoening<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>uni-bremen<span class="d-none">protect me ?!</span>.de</a></p><p>&nbsp;</p><p><strong>Bildquelle: </strong></p><p>Zigres/stock.adobe.com</p><p>&nbsp;</p><p>&nbsp;</p><p>&nbsp;</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/0/3/csm_Corona-Datenspende-App_c6d2e448f5.jpg" length="26701" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/0/3/csm_Corona-Datenspende-App_c6d2e448f5.jpg" fileSize="26701" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-26852</guid>
                            <pubDate>Mon, 18 Oct 2021 10:54:49 +0200</pubDate>
                            <title>Gebündelte Kompetenzen für VR-Einsatz im Operationssaal</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/gebuendelte-kompetenzen-fuer-vr-einsatz-im-operationssaal</link>
                            
                            <description>TZI-Arbeitsgruppen arbeiten gemeinsam im Projekt VIVATOP, um 3D-Technologien für die Chirurgie nutzbar zu machen.</description>
                            <content:encoded><![CDATA[<p>Bei Operationen an Organen wie der Leber kommt es oft auf Millimeter an, damit ein Tumor komplett entfernt werden kann, ohne dabei wichtige Blutgefäße zu verletzen. Um die Planung und Durchführung solcher Eingriffe deutlich zu erleichtern, arbeiten zwei Forschungsgruppen des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen im Projekt VIVATOP („Vielseitiger Immersiver Virtueller und Augmentierter Tangible OP“) eng zusammen. Gemeinsam mit weiteren Partnern entwickeln sie Lösungen zur 3D-Visualisierung des zu operierenden Organs, sodass die Ärztinnen und Ärzte eine wesentlich präzisere räumliche Vorstellung bekommen.</p><p><strong>3D-Visualisierung der Leber</strong></p><p>Die Arbeitsgruppe Digitale Medien unter Leitung von Professor Rainer Malaka verfügt über besondere Kompetenz bei der Visualisierung von 3D-Strukturen. Bisher wurden in der Diagnostik CT- und MRT-Aufnahmen verwendet, die nur zweidimensionale Schwarzweiß-Ansichten bieten. Im Rahmen des Projekts VIVATOP werden sie zu farbigen 3D-Visualisierungen weiterverarbeitet. „Dadurch lässt sich die räumliche Darstellung eines Organs in Echtzeit nach Belieben drehen, wenden, manipulieren und zur detaillierten OP-Planung heranziehen – oder auch zur Orientierung während des Eingriffs“, erklärt Malaka.</p><p>Seine Arbeitsgruppe verfügt auch über besondere Erfahrung bei der nutzerfreundlichen Gestaltung von Virtual-Reality-Technologien. Im Operationssaal ist es essenziell, dass die Chirurginnen und Chirurgen die neuen Technologien weitgehend intuitiv bedienen können.</p><p><strong>Videokonferenz in VR während der OP</strong></p><p>Die Arbeitsgruppe Virtual Reality und Computergraphik unter Leitung von Professor Gabriel Zachmann entwickelt unterdessen die Möglichkeit, externe Ärztinnen und Ärzte per Telepräsenz an einer Operation teilhaben zu lassen – und zwar ebenfalls mit Nutzung der 3D-Ansichten in Virtual Reality oder Augmented Reality („erweiterte Realität“). Der operierende Chirurg und die extern zugeschaltete Kollegin können über ihre Virtual-Reality-Headsets kommunizieren und 3D-Ansichten des betroffenen Organs beispielsweise per Gestensteuerung drehen oder mit Markierungen versehen. Damit die Kommunikation flüssig verläuft, muss die Latenz – also die Zeitverzögerung bei der Datenübertragung – auch über große Entfernungen hinweg sehr gering sein. &nbsp;</p><p>Die Arbeiten der beiden Teams greifen besonders bei der Interaktion der operierenden Chirurginnen und Chirurgen mit den zugeschalteten Ärztinnen und Ärzten ineinander. Aber auch auf der organisatorischen Ebene zahlt sich die Kooperation der TZI-Arbeitsgruppen aus. An VIVATOP sind fünf weitere Partner beteiligt, das Projektmanagement liegt jedoch am TZI bei der Gruppe von Professor Malaka. „Dadurch haben wir den direkten Draht innerhalb des Hauses“, betont Professor Zachmann. „Schon bei der Antragstellung war das extrem hilfreich.“ Darüber hinaus biete das TZI generell einen Rahmen, der die Wege verkürze und administrative Wege vereinfache.</p><p><strong>Weitere Partner beteiligt</strong></p><p>Neben den Arbeitsgruppen des TZI sind auch Unternehmen und Gesundheitseinrichtungen an VIVATOP beteiligt. Die Universitätsklinik für Viszeralchirurgie am Pius Hospital Oldenburg liefert die medizinische Expertise und stellt die Bilddaten zur Verfügung. Das Fraunhofer-Institut für Digitale Medizin MEVIS erstellt daraus virtuelle realistische Organ-Modelle für AR/VR und den 3D-Druck, während die apoQlar GmbH als Spezialistin im Bereich Augmented Reality und die cirp GmbH für den 3D-Druck eingebunden sind. Die SZENARIS GmbH verantwortet den Bereich Training und Ausbildung.</p><p>Gefördert wird das Projekt VIVATOP vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 2,2 Millionen Euro.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/vivatop-foto_k.jpg" length="111029" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb3/tzi/images/vivatop-foto_k.jpg" fileSize="111029" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-28051</guid>
                            <pubDate>Mon, 21 Mar 2022 09:43:50 +0100</pubDate>
                            <title>Ausstellung im FabLab: City Campus in 3D</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/ausstellung-im-fablab-city-campus-in-3d</link>
                            
                            <description>Studierende haben Gestaltungsideen für den City Campus am Brill entwickelt und mit 3D-Technologien in Modelle umgesetzt.</description>
                            <content:encoded><![CDATA[<p>Die Möglichkeit eines Teilumzugs der Universität Bremen vom Stadtrand ins Zentrum wird seit einigen Monaten intensiv diskutiert und aktuell in einer Machbarkeitsstudie untersucht. Aber was sagen eigentlich die Studierenden dazu? Und wie stellen sie sich die Umgestaltung des ehemaligen Sparkassengeländes am Brill vor? Antworten darauf bietet eine Ausstellung von Studierenden der Universität im FabLab Bremen</p><p>Im Rahmen des Kurses „3D-Modellierung mit FabLab-Technologien“ haben Studierende aus verschiedenen Nationen insgesamt sechs Modelle eines künftigen Brill-Gebäudekomplexes entwickelt. Diese Modelle sind zusammen mit einer 3D-Computervisualisierung vom 25. März bis zum 24. Juni 2022 im FabLab Bremen, An der Weide 50a (ehemaliges Postamt 5 am Bahnhof) öffentlich ausgestellt.</p><p>Die Studierenden haben unter Anleitung von Dr. Bernard Robben 3D-Modelle programmiert und anschließend mit Hilfe von modernen Produktionsmaschinen wie 3D-Druckern und Lasercuttern in physische Modelle umgesetzt. Ein Fokus lag dabei auf dem sogenannten parametrischen Design, das die Entwicklung komplexer Formen ermöglicht und neben der Architektur auch im Flugzeugbau eingesetzt wird. Es erleichtert unter anderem eine effizientere Bauweise, aber auch eine interessantere Gestaltung von Gebäuden. Dabei weist es eine Nähe zu Bauweisen der Natur (Bionik) und zur japanischen Origami-Kunst auf.</p><p>Bei der Ausstellung handelt es sich um eine Kooperation der Universität Bremen mit dem FabLab Bremen e.V., einer High-tech-Werkstatt, die allen Interessierten offen steht.</p><p>&nbsp;</p><p><strong>Einladung zur Vernissage</strong></p><p>Die Studierenden um Dr. Robben und das FabLab laden Medienvertreter und die Öffentlichkeit zur Vernissage sein. Sie werden dabei einige der Modelle vorstellen und stehen auch für Fragen zur Verfügung.</p><p>Freitag, 25. März 2022, 19 Uhr<br> FabLab Bremen<br> An der Weide 50a (ehemaliges Postamt 5 am Bahnhof)<br> Eingang „Kern 1“, 1. Stock</p><p><strong>Öffnungszeiten 26.03.-24.06.2022</strong></p><p>Montags 18 bis 21 Uhr<br> Donnerstags 15 bis 17 Uhr<br> Oder nach Vereinbarung</p><p><strong>Ansprechpartner</strong></p><p>Dr. Bernard Robben<br> Universität Bremen<br> T. 0170 8074848<br><a href="#" data-mailto-token="ocknvq,tqddgpBwpk/dtgogp0fg" data-mailto-vector="2">robben<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>uni-bremen<span class="d-none">protect me ?!</span>.de</a></p><p>Jürgen Amthor<br> FabLab Bremen e.V.<br> T. 0421 40 89 36 24<br> ausstellung@fablab-bremen.org</p><p><strong>Bildunterschrift:</strong></p><p>Lisa Hesselbarth und Thomas Höring mit ihrem Modell des City Campus im FabLab Bremen.</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/3/7/csm_Ausstellung_City_Campus_2_4ed97126ec.jpg" length="499173" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/3/7/csm_Ausstellung_City_Campus_2_4ed97126ec.jpg" fileSize="499173" type="image/jpeg"/><media:description type="plain">Lisa Hesselbarth und Thomas Höring mit ihrem Modell des City Campus im FabLab Bremen</media:description><media:copyright>Universität Bremen</media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-28374</guid>
                            <pubDate>Tue, 03 May 2022 09:42:46 +0200</pubDate>
                            <title>Best Paper Award für Gravitationsstudie </title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/best-paper-award-fuer-gravitationsstudie</link>
                            
                            <description>Bei der IEEE Aerospace Conference 2022 wurde ein Forschungsteam mit TZI-Beteiligung für eine Studie zur Berechnung von Gravitationsfeldern ausgezeichnet.</description>
                            <content:encoded><![CDATA[<p>Die präzise Berechnung der Gravitationsfelder von unregelmäßig geformten Objekten – beispielsweise Asteroiden – spielt in der Raumfahrt eine wichtige Rolle für zukünftige Missionen, unter anderem für die Planung der Umlaufbahn von Raumfahrzeugen. Auch können wichtige Rückschlüsse auf das Innere eines Asteroiden aus der Analyse der Umlaufbahn gezogen werden. Ein Team aus Wissenschaftlerinnen und Wissenschaftlern des TZI der Universität Bremen, der Universität der Bundeswehr (München) und der Königlichen Sternwarte von Belgien hat daher drei Methoden zur Modellierung der Gravitationsfelder kleiner Objekte untersucht und verglichen. Für ihre Arbeit wurden sie bei der <a href="https://aeroconf.org/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">IEEE Aerospace Conference 2022</a>&nbsp;in Montana (USA) mit einem Best Paper Award ausgezeichnet.</p><p>Seitens des TZI war die Arbeitsgruppe <em>Computergraphik und Virtuelle Realität</em> mit deren Leiter, Professor Gabriel Zachmann, sowie Hermann Meißenhelter und Dr. René Weller beteiligt. Gemeinsam mit den Projektpartnern bewerteten sie die drei Methoden anhand von verschiedenen Testobjekten, unter anderem dem Marsmond Phobos, der in kommenden Mars-Missionen eine zentrale Rolle spielen wird. Die vorgeschlagenen Methoden zeigten, dass jede von ihnen für die Modellierung von Asteroiden mit unterschiedlichen Eigenschaften geeignet ist. Die Vorgehensweise, die am TZI entwickelt wurde, erwies sich dabei als die mit Abstand schnellste Berechnungsmethode.</p><p>Die Studie „Efficient and Accurate Methods for Computing the Gravitational Field of Irregular-Shaped Bodies” kann hier als PDF heruntergeladen werden:</p><p><a href="https://cgvr.cs.uni-bremen.de/papers/aeroconf2022/2022_Efficient_and_Accurate_Methods_for_Computing_the_Gravitational_Field_of_Irregular-Shaped_Bodies.pdf" target="_blank" rel="noreferrer">https://cgvr.cs.uni-bremen.de/papers/aeroconf2022/2022_Efficient_and_Accurate_Methods_for_Computing_the_Gravitational_Field_of_Irregular-Shaped_Bodies.pdf</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/6/f/csm_best_paper_gravitation_59bd62a95d.jpg" length="91604" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/6/f/csm_best_paper_gravitation_59bd62a95d.jpg" fileSize="91604" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-29225</guid>
                            <pubDate>Mon, 15 Aug 2022 09:52:36 +0200</pubDate>
                            <title>3D-Technologien für den Operationserfolg in der Medizin</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/3d-technologien-fuer-den-operationserfolg-in-der-medizin-1</link>
                            
                            <description>Wissenschaftler:innen und Entwickler:innen des Forschungsverbunds VIVATOP haben 3D-Technologien entwickelt, die eine neuartige, schnelle und präzise OP-Vorbereitung für chirurgische Eingriffe ermöglichen.</description>
                            <content:encoded><![CDATA[<p>Wenn ein Tumor sich zu nahe an wichtigen Blutgefäßen befindet, kann seine chirurgische Entfernung gefährlich oder sogar unmöglich sein. Im Forschungsprojekt VIVATOP haben Wissenschaftler:innen der Universitäten Bremen und Oldenburg mit ihren Verbundpartner:innen jetzt 3D-Technologien entwickelt, die dem Ärztinnen-Team eine deutlich bessere Einschätzung der Situation vor und während des Eingriffs ermöglichen. Dadurch erwarten sie besonders bei schwierigen Fällen eine bessere Einschätzung der Operationsmöglichkeiten und eine damit einhergehende höhere Erfolgsquote. Am Verbund beteiligten sich auch das Fraunhofer-Institut MEVIS sowie die Wirtschaftspartner SZENARIS, cirp und apoQlar.</p><p>Das Ende Juni abgeschlossene Verbundprojekt unter Leitung des Technologie-Zentrums Informatik und Informationstechnik (TZI) der Universität Bremen hatte zum Ziel, innovative und interaktive 3D-Technologien für den klinischen Einsatz zu entwickeln. „Moderne Technologien wie virtuelle Realität, erweiterte Realität und 3D-Druck bieten ein bislang ungenutztes Potenzial, sowohl die OP-Planung und -Durchführung als auch das Training zu verbessern“, betont Professor Rainer Malaka, geschäftsführender Direktor des TZI.</p><p><strong>Organe in 3D – zum Anfassen und Angucken</strong><br> Chirurg:innen haben nun die Möglichkeit, realitätsgetreue 3D-Modelle der betroffenen Organe zu erstellen, die sowohl digital visualisiert als auch per 3D-Druck physisch greifbar gemacht werden können. Das Projektkonsortium legte den Fokus dabei hauptsächlich auf die Leber, fügte aufgrund der Pandemie aber auch die Darstellung von Lungen hinzu, um die Diagnose von COVID-19 Erkrankungen zu unterstützen.</p><p>Die 3D-Visualisierung eines Organs in der virtuellen oder erweiterten Realität (VR/AR) bietet deutliche Vorteile gegenüber den bisher üblichen zweidimensionalen Aufnahmen aus Computer- oder Magnetresonanztomographien (CT/MRT). Mit Hilfe einer speziellen AR-Brille können sich Chirurg:innen das patientenindividuelle 3D-Modell als ‚Hologramm‘ während der Operation ansehen, wobei sie es durch Gestensteuerung drehen und wenden oder auch manuell platzieren können. Sie können sich vor dem Eingriff bereits die Auswirkungen eines Schnitts auf die stark durchblutete Leber anzeigen lassen, um einschätzen zu können, wie viel Gewebe anschließend nicht mehr funktionstüchtig sein wird. Ein physisches 3D-Modell erlaubt in Kombination mit einem Trainingssystem darüber hinaus das Üben von komplexen Eingriffen und Stresssituationen.</p><p><strong>Bewährungsproben im OP bestanden</strong><br> Die Universitätsmedizin Oldenburg war mit dem Viszeralchirurgen Professor Dirk Weyhe vom Pius-Hospital Oldenburg als Anwendungspartner beteiligt. Die Prototypen aus dem VIVATOP-Projekt bestanden dort die klinische Erprobung. „Mit Hilfe der 3D-Modelle können wir die komplexe Gefäß- und Organanatomie wesentlich schneller erfassen“, berichtet Weyhe. „Im CT und MRT muss man sich das aus zwei Ebenen zusammensetzen.“ Das Krankenhaus wird von der internationalen Holomedicine-Association als eines von weltweit drei „Centers of Excellence“ geführt.</p><p>Die Forscher:innen haben zusätzlich eine „Multi-User“-Funktionalität eingebaut, die es ermöglicht, dass mehrere Personen gleichzeitig mit dem Modell arbeiten. Dabei spielt es keine Rolle, ob sich die Beteiligten gemeinsam in einem Raum befinden oder nicht – per AR-Telefonie können auch Expertinnen und Experten von anderen Kontinenten hinzugeschaltet werden. Für die entfernten Expert:innen in den Live-Streams aus dem OP werden verschiedene Darstellungen erprobt, um diese möglichst wirklichkeitsgetreu darzustellen und um ihnen einen realistischen Eindruck des Geschehens im OP zu ermöglichen. In Vorbesprechungen erweisen allerdings auch die ganz realen Modelle aus dem 3D-Drucker ihre Stärken, denn sie können ohne Technikeinsatz als Anschauungsobjekte dienen.</p><p><strong>BMBF-Förderung mit insgesamt 2,2 Millionen Euro</strong><br> Das Projekt wurde am&nbsp;TZI&nbsp;der Universität Bremen von der Arbeitsgruppe „Digitale Medien“ (Professor Rainer Malaka) koordiniert und von der Arbeitsgruppe „Virtual Reality und Computergraphik“ (Professor Gabriel Zachmann) unterstützt. Die Universitätsklinik für Viszeralchirurgie am Pius Hospital Oldenburg (Professor Dirk Weyhe) lieferte die medizinische Expertise und stellte die Bilddaten zur Verfügung. Das Fraunhofer-Institut für Digitale Medizin MEVIS erstellte daraus virtuelle realistische Organ-Modelle für AR/VR und den 3D-Druck und erforschte realistische Darstellungsmethoden. Die apoQlar GmbH war als Spezialistin im Bereich „innovative Interaktionen, Multi-User Nutzung sowie Visualisierungen in Augmented Reality“ eingebunden. Der 3D-Druck Spezialist cirp GmbH erforschte und entwickelte neuartige Planungs- und Trainingsmodelle. Die SZENARIS GmbH verantwortete den Bereich „Training und Ausbildung“ und kombinierte alle Technologien erfolgreich in ein neuartiges Trainingssystem.</p><p>Gefördert wurde das Projekt VIVATOP vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 2,2 Millionen Euro. Die Projektpartner überführen die Ergebnisse bereits in den Praxisalltag und die chirurgische Ausbildung.</p><p>Weitere Informationen: &nbsp;<a href="https://vivatop.de/" target="_blank" rel="noreferrer">vivatop.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/c/f/csm_Teaserbild_c_VIVATOP_k_a8334cb226.jpg" length="100348" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/c/f/csm_Teaserbild_c_VIVATOP_k_a8334cb226.jpg" fileSize="100348" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-29599</guid>
                            <pubDate>Mon, 10 Oct 2022 09:32:19 +0200</pubDate>
                            <title>hyBit: New Large-Scale Hydrogen Research Project Launched in Bremen</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/hybit-new-large-scale-hydrogen-research-project-launched-in-bremen</link>
                            
                            <description>Wasserstoff: „Energieträger von morgen“, und die spürbaren Folgen von Klimawandel und Politik machen die schnelle Einführung unabdingbar. Doch der Weg in eine effiziente Wasserstoffwirtschaft ist komplex, birgt ökonomische und gesellschaftliche Herausforderungen und bedarf exzellenter Forschung.</description>
                            <content:encoded><![CDATA[<p><strong>Wasserstoff gilt als „Energieträger von morgen“. Doch der Weg in eine effiziente Wasserstoffwirtschaft ist komplex und bedarf exzellenter wissenschaftlicher Forschung. Das von der Universität koordinierte Wasserstoff-Großforschungsprojekt hyBit bekommt dafür jetzt knapp 30 Millionen Euro Förderung.</strong></p><p>„Dies ist ein großer Erfolg für die Universität Bremen, die sich gerade auf den Weg in Richtung Nachhaltigkeit und Klimaneutralität macht“, freut sich Professorin Jutta Günther, die soeben ihr Amt als neue Rektorin der Bremer Uni angetreten hat. „Das Bundesministerium für Bildung und Forschung hat diese enorm hohe Summe für das Großforschungsprojekt ‚Hydrogen for Bremen’s industrial Transformation‘ – kurz hyBit – zur Verfügung gestellt, weil die Universität bereits in zahlreichen Arbeitsbereichen mit erfolgreichen Projekten bewiesen hat, dass sie in der interdisziplinären Erforschung von Wasserstoff-Strategien eine wichtige Rolle spielt. Ich bin sicher, dass wir in der Zusammenarbeit mit unseren außeruniversitären Partnern in den nächsten Jahren wichtige Beiträge zur sozial-ökologischen Transformation in Richtung Nachhaltigkeit setzen können.“</p><p>Bundesforschungsministerin Bettina Stark-Watzinger: „Ich möchte Deutschland zur Wasserstoffrepublik machen. Denn wir müssen unsere Industrie in Zukunft klimaneutral und verlässlich mit Energie versorgen. Dabei wollen wir unabhängig von einzelnen Ländern werden und vor allem mit Partnern zusammenarbeiten, die unsere Werte teilen. Als Innovationsland haben wir jetzt die Chance, Wasserstofftechnologien zum nächsten deutschen Exportschlager zu machen. Die Region Bremen und insbesondere das Projekt hyBit können dazu einen wichtigen Beitrag leisten, weil hier Forschung und Industrie Hand in Hand zusammenarbeiten. Im kleinen Maßstab erprobt man hier die Wasserstoffwirtschaft für das ganze Land. Deshalb förden wir dieses besondere Projekt mit insgesamt 30 Millionen Euro.“</p><p>Zentraler Ausgangspunkt des Projekts im Bremer Industriehafen ist das Stahlwerk von Arcelor Mittal. „Warum? Weil es aktuell noch einer der größten Luftverschmutzer der Region ist. Es stößt jährlich rund sechs Millionen Tonnen Kohlenstoffdioxid aus, fast so viel wie der Rest der Stadt zusammen“ sagt der Gesamtkoordinator des Projektes, Dr. Torben Stührmann. Die Stahlbranche ist eine der herausragenden Branchen, die mit Forschung und Innovation den Umstellungsprozess von Kohle und Erdgas auf grünen Wasserstoff starten. Das Projektkonsortium hyBit wird getragen von 19 Partnern aus Wissenschaft und Industrie, die mit einem starken Kooperationsansatz zusammenarbeiten. Projektpartner sind u. a. das Wuppertal-Institut, das Bremer Institut für Produktion und Logistik (BIBA) an der Universität Bremen, das Fraunhofer-IFAM (Bremen), das Fraunhofer-ICT (Karlsruhe) und die Hochschule Bremen, sowie weitere Schlüsselakteure der bremischen Industrie wie Arcelor Mittal Bremen, swb und die BLG. In der Universität Bremen sind elf Arbeitsgruppen aus den Technik-, Geistes- und Sozialwissenschaften vertreten, denn die Transformation in Richtung Nachhaltigkeit ist nicht nur eine technische, sondern auch eine gesellschaftlich-kulturelle Herausforderung.</p><p><strong>Ziel: Aufbau eines Wasserstoff-Hubs in Bremen</strong></p><p>Mit Erfolg: „Wasserstoff für Bremens industrielle Transformation“ – so der deutsche Titel des hyBit-Vorhabens – ist in diesem Fall Programm. „Eine deutsche Wasserstoffwirtschaft aufzubauen, funktioniert am besten durch beispielhafte regionale Leuchtturm-Projekte – sogenannte Wasserstoff-Hubs. Die Entwicklung und Gestaltung von Wasserstoff-Hubs wollen wir im Rahmen von hyBit in Bremen und der Region verfolgen“, sagt Dr. Torben Stührmann. Der Leiter des Fachgebiets Resiliente Energiesysteme im Fachbereich Produktionstechnik der Universität Bremen ist erfahrener Experte hinsichtlich der Einführung von Wasserstoff. Er arbeitet bereits seit mehreren Jahren in entsprechenden Projekten.</p><p>„Der Aufbau der Wasserstoffwirtschaft berührt unterschiedlichste Ebenen in den Sektoren Strom, Wärme und Mobilität. Wasserstoff ist die Zukunft – aber viele Betroffene haben bislang nur wenig Erfahrungen damit gemacht“, erläutert Stührmann. „Wir sprechen über tiefgreifende Veränderungen von Märkten, Infrastrukturen und Arbeitsprozessen.“ Im Klartext: Der Abschied von fossilen Energieträgern wie Kohle und Erdgas und die Umstellung auf „grünen Wasserstoff“ stellt viele Abläufe und Gewohnheiten in Frage und erfordert immense Anpassungen – Transformationen, die im Forschungsprojekt hyBit fachübergreifend erforscht und vorbereitet werden.</p><p class="MsoBodyText"><strong>Worum geht es beim Projekt hyBit?</strong></p><p class="MsoBodyText">„Die zentralen Fragestellungen von hyBit sind: In welcher Geschwindigkeit kann der Umbau von Wasserstoff-Hubs gesamtgesellschaftlich erfolgreich gelingen, welche Hindernisse sind auf dem Weg zu erwarten und wie kann man unerwarteten Herausforderungen während dieses Umbaus auf lokaler Ebene begegnen. Spezifisch werden dabei technische, wirtschaftliche, ökologische, rechtliche und gesellschaftliche Aspekte in den Blick genommen. Welche Erkenntnisse zu Synergien und Abwägungsprozessen unterstützen die Übertragung von kleineren regionalen Transformationsprozessen auf eine größere Maßstabsebene der Wasserstoffwirtschaft? Wie kann das auf absehbare Zeit knappe Gut Wasserstoff schnell und mit größtmöglichem Hebel im Prozess der Transformation eingesetzt werden?“, erläutert Torben Stührmann. Dabei arbeiten mehrere Arbeitsgruppen mit einem Mix vielfältiger wissenschaftlicher Methoden auf folgende Ergebnisse hin:</p><ul class="list-normal"><li class="MsoBodyText">Ein Fahrplan für die Gestaltung einer grünen, wasserstoffbasierten nachhaltigen Industrie im Bremer Industriehafen, die eine neue Verbindung der Sektoren Wärme, Strom und Mobilität ermöglicht.</li><li class="MsoBodyText">Ein Digitaler Zwilling des Bremer Industriehafens als Beispiel für die Gestaltung großskaliger Wasserstoff Hubs der technischen und gesellschaftlichen Aspekte in den Blick nimmt. &nbsp;</li><li class="MsoBodyText">Der Digitale Zwilling dient dem lokalen Monitoring, um die Geschwindigkeit der Transformation im Bremer Industriehafen auch unter sich verändernden Rahmenbedingen kontinuierlich hoch zu halten.</li><li class="MsoBodyText">Der Defossilisierungsprozess wird resilient gestaltet, um Veränderungen und Unsicherheiten beim Aufbau und Betrieb von Wasserstoff Hubs frühzeitig zu begegnen. Die Verfügbarkeit unterschiedlicher Ressourcen wie Wasserstoff, Strom, Wärme, Logistik etc. sind gegen äußere Schocks gesichert – und dadurch die Klimaneutralität, Wirtschaftlichkeit und Verfügbarkeit industrieller Prozesse nachhaltig sichergestellt.</li><li class="MsoBodyText">Eine Vernetzung von Wasserstoffakteuren aus Politik, Wirtschaft und Wissenschaft mündet in einer starken norddeutschen Wasserstoff-Ökonomie.</li></ul><p class="MsoBodyText">„hyBit wird den Transformationsprozess hin zu einer Wasserstoffwirtschaft in einem Monitoring abbilden und beschleunigen, indem notwendige Maßnahmen umsichtig geplant und Fehlentwicklungen oder Verzögerungen weitestgehend vermieden werden. Wenn uns das modellhaft hier im Bremer Industriehafen gelingt, sind wir sehr zuversichtlich, diese Erkenntnisse auch auf andere Standorte in Deutschland und Europa übertragen zu können, die einem ähnlichen Strukturwandel unterliegen.“ erklärt Torben Stührmann. „Durch hyBit soll unsere zukünftige nachhaltige Wasserstoffökonomie gegenüber äußeren Einflussfaktoren widerständiger sein und unserer Wirtschaft und Gesellschaft mehr Sicherheit geben. Die derzeitige Entwicklung der Energiepreise und die massiven Auswirkungen auf unser alltägliches Leben und unsere Wirtschaft – auch ganz unmittelbar hier am Standort des Projekts im Bremer Industriehafen – führen uns vor Augen, welche enorme Aktualität hyBit besitzt“.</p><p class="MsoBodyText"><strong>Fachübergreifende Expertise im Forschungszentrum BEST</strong></p><p>Die Arbeiten des im Frühjahr 2022 eröffneten universitären Forschungszentrums BEST – Bremer Forschungszentrum für Energiesysteme bilden den Transferschwerunkt des Projekts. Hier werden die Ergebnisse für den Transfer zusammengeführt. Professorinnen und Professoren aus unterschiedlichsten Fachgebieten arbeiten hier fachübergreifend zusammen. „In BEST wird die reichhaltige Expertise der Universität Bremen sowie der außeruniversitären Forschungsinstitute und Hochschulen des Landes zusammengeführt, um die Zukunftsfragen der Energiesysteme und Energieversorgung zu lösen“, sagt Professorin Johanna Myrzik, die Sprecherin des Zentrums. „Der interdisziplinäre Ansatz ist hier entscheidend, denn die richtigen Antworten auf komplexe Verknüpfungen von Nachhaltigkeit, Versorgungssicherheit, gesellschaftlicher Akzeptanz und Wettbewerbsfähigkeit von Energiesystemen findet kein Fachgebiet alleine – sondern nur alle zusammen.“ In BEST sind 19 Arbeitsgruppen aus den Fachbereichen Physik/Elektrotechnik, Mathematik/Informatik, Produktionstechnik – Maschinenbau &amp; Verfahrenstechnik, Rechtswissenschaft Wirtschaftswissenschaft, Sozialwissenschaften und Kulturwissenschaften verankert.</p><p class="MsoBodyText">BEST ist Bestandteil des noch relativ neuen Forschungs- und Transferschwerpunkts Energiewissenschaft im <a href="https://www.uni-bremen.de/fileadmin/user_upload/fachbereiche/fb7/best/Wissenschaftsplan_2025.43580.pdf" target="_blank" title="Leitet Herunterladen der Datei ein">Wissenschaftsplan 2025</a>des Landes Bremen. Das Land unterstützt den Aufbau der Einrichtung mit einer Anschubfinanzierung.</p><p class="MsoBodyText">Einen Hintergrundartikel zur Wasserstoff-Forschung an der Universität Bremen finden Sie hier: <a href="http://www.up2date.uni-bremen.de/forschung/den-energietraeger-von-morgen-entwickeln" target="_blank" rel="noreferrer">www.up2date.uni-bremen.de/forschung/den-energietraeger-von-morgen-entwickeln</a></p><p><strong>Weitere Informationen:</strong><br><a href="http://www.uni-bremen.de/best" target="_blank">www.uni-bremen.de/best</a><br><a href="http://www.uni-bremen.de/" target="_blank">www.uni-bremen.de</a><br> &nbsp;</p><p><strong>Fragen beantworten:</strong></p><p>Für hyBit:</p><p>Dr. Torben Stührmann<br> Gesamtkoordinator<br> Universität Bremen<br> Fachbereich Produktionstechnik - Maschinenbau &amp; Verfahrenstechnik / Fachgebiet Resiliente Energiesysteme<br> artec | Forschungszentrum Nachhaltigkeit<br> Tel. +49 (0)421 218-64896<br> E-Mail: <a href="#" data-mailto-token="ocknvq,v0uvwgjtocppBwpk/dtgogp0fg" data-mailto-vector="2">t.stuehrmann<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>uni-bremen<span class="d-none">protect me ?!</span>.de</a></p><p>Für BEST:</p><p>Prof. Dr. Johanna Myrzik<br><a href="https://www.uni-bremen.de/best/ueber-uns" target="_blank">BEST - Bremer Forschungszentrum für Energiesysteme</a></p><p>Sprecherin<br> Telefon: +49 (0)421 218-62442<br> E-Mail: <a href="#" data-mailto-token="ocknvq,OatbkmLBkcv0wpk/dtgogp0fg" data-mailto-vector="2">MyrzikJ<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>iat.uni-bremen<span class="d-none">protect me ?!</span>.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-29660</guid>
                            <pubDate>Mon, 17 Oct 2022 10:58:03 +0200</pubDate>
                            <title>Verbesserte KI-Methoden zur Erkennung von Programmier-fehlern</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/verbesserte-ki-methoden-zur-erkennung-von-programmierfehlern-2</link>
                            
                            <description>Im Auftrag des Bundesamts für Sicherheit in der Informationstechnik haben Mitarbeiter des TZI und der Firma Team Neusta den Einsatz von Künstlicher Intelligenz bei der Codeanalyse untersucht. </description>
                            <content:encoded><![CDATA[<p>Softwarehersteller untersuchen ihre Programme oft bereits in der Entwicklungsphase, um Fehler frühzeitig zu entdecken. Durch den Einsatz sogenannter SAST-Werkzeuge (Static Application Security Testing) lässt sich dieser Prozess teilweise automatisieren. Auch wenn sich der Nutzen solcher Tools in der Praxis gezeigt hat, übersehen sie oft Fehler oder melden viele Fehlalarme, sodass der Nutzen eingeschränkt wird. Maschinelles Lernen (ML), also automatisches Lernen aus Daten, kann dazu beitragen, die Fehlerraten solcher SAST-Werkzeuge zu reduzieren.&nbsp;&nbsp;</p><p>In einer großangelegten Studie wurde jetzt die Wirksamkeit des Einsatzes maschineller Lernverfahren in diesem Kontext untersucht, wobei auch die bestmögliche Umsetzung anhand der neuesten Forschungsansätze im Blickpunkt stand. Die AG Softwaretechnik am Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen sowie die Firmen neusta software development und neusta mobile solutions haben im Auftrag des Bundesamts für Sicherheit in der Informationstechnik (BSI) den Stand der Technik ermittelt. Im Rahmen des Projekts „Machine Learning im Kontext von Static Application Security Testing (ML-SAST)“ führten sie Umfragen, Experteninterviews und eine systematische Literaturrecherche durch. Darüber hinaus untersuchten sie am Markt erhältliche SAST-Tools bezüglich ihrer ML-Funktionalitäten und Fehlererkennungsraten.</p><p><strong>Größtes Potenzial beim „unüberwachten Lernen“</strong></p><p>Die Ergebnisse fassten sie in einer umfangreichen Studie zusammen, wobei sie insbesondere die erfolgversprechendsten Ansätze sowie den Forschungsbedarf in diesem Umfeld herausarbeiteten. Eine zentrale Erkenntnis besteht darin, dass in den meisten Fällen überwachte Ansätze des maschinellen Lernens („supervised learning“) genutzt werden, obwohl diese mit erheblichen Nachteilen einhergehen. „Wenn man überwachte Lernansätze verwenden möchte, braucht man gute Datensätze für das Training der Werkzeuge, und die gibt es zurzeit nicht“, erklärt TZI-Mitarbeiter Lorenz Hüther. Die Entwicklung der benötigten Datensätze sei zumindest kurzfristig „eher unrealistisch“ und auch längerfristig nur mit erheblichem Aufwand realisierbar.</p><p>Darüber hinaus erfordere das überwachte Lernen ein hohes Maß an Erklärbarkeit der Ergebnisse – sowohl die Entwickler:innen als auch die Anwender:innen der Werkzeuge müssen erkennen können, ob die Entscheidungskriterien des Systems sinnvoll sind.</p><p>Das größte Potenzial sieht das Projektteam daher aktuell bei unüberwachten Lernverfahren („unsupervised learning“) mit Hilfe des sogenannten Clusterings. Dabei erkennt das System zunächst alle ähnlichen Funktionen des Programms und bündelt sie, um sie zu vergleichen. Wird an einer Stelle eine Abweichung entdeckt, erkennt das Werkzeug dies als potenziellen Fehler.</p><p><strong>Prototyp wird bis Ende des Jahres veröffentlicht</strong></p><p>Allerdings ist weiterer Forschungs- und Entwicklungsbedarf notwendig, um das Potenzial dieser Methoden für den Einsatz in der Praxis zu steigern. Die Projektbeteiligten wollen bis Ende des Jahres einen Prototyp entwickeln, der die besten aktuell verfügbaren Verfahren im Bereich ML-SAST nutzt. Der Prototyp wird als Open-Source-Projekt umgesetzt, sodass alle interessierten Hersteller ihn für ihre Produktentwicklung verwenden können. Das BSI finanziert die Entwicklung des Prototyps.</p><p><strong>Weitere Informationen:</strong></p><p>Die Studie „Machine Learning in the Context of Static Application Security Testing – ML-SAST“ kann beim BSI unter diesem Link abgerufen werden:<br><a href="https://www.bsi.bund.de/DE/Service-Navi/Publikationen/Studien/ML-SAST/ml-sast_node.html" target="_blank" rel="noreferrer">https://www.bsi.bund.de/DE/Service-Navi/Publikationen/Studien/ML-SAST/ml-sast_node.html</a></p><p><strong>Fragen beantwortet:</strong></p><p>Lorenz Hüther<br> Technologie-Zentrum Informatik und Informationstechnik (TZI)<br> Universität Bremen<br> Telefon: +49 421218-64476</p><p>E-Mail: <a href="#" data-mailto-token="ocknvq,nqtgpb3Bwpk/dtgogp0fg" data-mailto-vector="2">lorenz1<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>uni-bremen<span class="d-none">protect me ?!</span>.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/f/5/csm_nodes2_b88b24b59c.png" length="1952979" type="image/png"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/f/5/csm_nodes2_b88b24b59c.png" fileSize="1952979" type="image/png"/><media:description type="plain">Die besten Verfahren der automatisierten Codeanalyse können
verschiedene Abhängigkeiten innerhalb eines Programms erkennen und diese
zwecks weiterer Untersuchungen in Graphen übersetzen. 
Copyright: Lorenz Hüther 
</media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-29868</guid>
                            <pubDate>Tue, 01 Nov 2022 09:05:39 +0100</pubDate>
                            <title>Konferenz zur Zukunft digitaler Spiele</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/konferenz-zur-zukunft-digitaler-spiele</link>
                            
                            <description>Vom 2. bis 5. November 2022 treffen sich internationale Wissenschaftlerinnen und Wissenschaftler in Bremen, um sich über neueste Forschungsergebnisse im Bereich Games auszutauschen.</description>
                            <content:encoded><![CDATA[<p>Digitale Spiele und menschliche Faktoren in Computersystemen stehen vom 2. bis 5. November 2022 im Fokus der Konferenz CHI PLAY. Die Konferenz, die von der Association for Computing Machinery (ACM) veranstaltet wird, bietet eine Mischung aus akademischen Forschungsbeiträgen, Masterclasses, interaktiven Spieldemos, Postersessions und einem Spiele-Design-Wettbewerb für Studierende. Gastgeber ist das Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen. Veranstaltungsort ist neben der Universität Bremen auch das Congress Centrum Bremen.</p><p>Innerhalb des Fachgebiets der Spieler-Computer-Interaktion, der Spiel(er*innen)forschung und des Gamedesigns zählt die CHI PLAY zu den Konferenzen mit dem höchsten Einfluss auf die dazugehörigen und benachbarten wissenschaftlichen Felder. Sie setzt durch hohe Qualitätsanforderungen Standards für neuartige und bedeutsame Forschung.</p><p>Zu den Schwerpunktthemen der Konferenz gehören Spieler*innenverhaltensweisen, neue Techniken und Visualisierungen sowie Spiele im Kontext der Gesundheitsförderung. Zwar setzt die Konferenz ihren Schwerpunkt im Bereich der Wissenschaft, jedoch bietet Sie auch eine starke Anbindung an die Praxis der Spieleentwicklung sowie an industrielle Nutzungspotenziale.</p><p><strong>Weitere Informationen:&nbsp;<a href="https://chiplay.acm.org/2022/" target="_blank" rel="noreferrer">https://chiplay.acm.org/2022/</a></strong></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/e/0/csm_chi_play_logo_c68dbbb7a9.jpg" length="11932" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/e/0/csm_chi_play_logo_c68dbbb7a9.jpg" fileSize="11932" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-30115</guid>
                            <pubDate>Mon, 28 Nov 2022 11:20:12 +0100</pubDate>
                            <title>„Hydrogen for Bremen’s industrial Transformation“</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/hydrogen-for-bremens-industrial-transformation</link>
                            
                            <description>„Hydrogen for Bremen’s industrial Transformation“ – kurz hyBit – heißt das bedeutende Wasserstoff-Großforschungsprojekt, das von der Universität Bremen koordiniert wird. Vom 15. – 17. November 2022 wird Vorhaben nun mit einem Kickoff gestartet. Dabei wurde auch das Bremer Stahlwerk besucht.</description>
                            <content:encoded><![CDATA[<p>Letzte Woche war die offizielle Auftaktveranstaltung für das neue Forschungsprojekt hyBit – Hydrogen for Bremen's Industrial Transformation. Mit den fast 100 teilnehmenden Personen aus Wissenschaft, Wirtschaft und Politik waren es drei Tage mit spannendem Austausch und einem eindrucksvollen Besuch im Bremer Stahlwerk.<br><br> In dem vom BMBF geförderten Wasserstoff-Großforschungsprojekt geht es um den um den Aufbau eines Wasserstoffzentrums im Bremer Industriehafen, einen sogenannten Wasserstoff-Hubs. Eine besondere Rolle spielt dabei das Bremer Stahlwerk, welches momentan noch für 58 Prozent der lokalen CO2-Emissionen verantwortlich ist. Die Umstellung auf sauberen Wasserstoff ist somit ein wesentlicher Beitrag für die Erreichung der Klimaziele des Landes Bremen.<br><br> Unser wissenschaftlicher Mitarbeiter Michael Bonfert trägt durch das Interaktionsdesign der digitalen Transformationsplattform zum Erfolg des Projekts bei. Durch innovative Technologien wie Virtual Reality und haptische Interfaces sollen komplexe Daten visualisiert und strategische Kollaboration gestärkt werden, was spannende Forschungsfragen für die Mensch-Computer-Interaktion aufwirft.</p><p><a href="http://www.linkedin.com/company/hybit" target="_blank" rel="noreferrer">www.linkedin.com/company/hybit</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/a/3/csm_IMG_20221115_120228_d1955ed0a0.jpg" length="130484" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/a/3/csm_IMG_20221115_120228_d1955ed0a0.jpg" fileSize="130484" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-30468</guid>
                            <pubDate>Mon, 16 Jan 2023 13:43:12 +0100</pubDate>
                            <title>Ich KI, du Jane!</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/ich-ki-du-jane</link>
                            
                            <description>Hausaufgaben, Programmcode, Beziehungsratgeber – es gibt keinen Bereich, in dem sich ChatGPT nicht auskennt. Die künstliche Intelligenz hat in den letzten Wochen in den Medien von sich reden gemacht und wird von vielen Menschen in Alltagssituationen eingesetzt.</description>
                            <content:encoded><![CDATA[<p>Aber sie hat ihre Fehler. Sie ist&nbsp;<em>confidently incorrect</em>&nbsp;– sie gibt selbstbewusst auch völlig falsche Antworten, die oftmals nur von Expertinnen und Experten als unsinnig eingestuft werden können. Sie versteht nicht, wovon sie spricht, sondern trägt nur hochkomplex Inhalte aus dem Internet zusammen. Meistens ziemlich gut, aber nur meistens.</p><p>Auftritt von Rainer Malaka und Robert Porzel. Die beiden Wissenschaftler der Universität Bremen sind Teil des Projekts<a href="https://www.muhai.org/" target="_blank" rel="noreferrer external noopener">&nbsp;MUHAI – „Meaning and Understanding in Human-centric AI“</a>. Hinter der Bezeichnung verbirgt sich ein neuer Ansatz künstlicher Intelligenz: „Wir wollen der KI eine menschliche Perspektive geben und der Schlüssel dazu ist das Verstehen von Sprache“, so Prof. Rainer Malaka, Geschäftsführender Direktor des TZI.</p><p><a href="https://www.bremen-innovativ.de/2023/01/ich-ki-du-jane/" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">Den vollständigen Artikel gibt es auf der Seite des&nbsp;Transferzentrum BREMEN.AI&nbsp;</a></p><p>&nbsp;</p><p>(Widergabe mit freundlicher Genehmigung der&nbsp;<a href="http://www.wfb-bremen.de" target="_blank" class="externalLink" title="Öffnet externen Link in neuem Fenster" rel="noreferrer">WFB Wirtschaftsförderung Bremen GmbH</a>)</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/c/c/csm_DALL_E-2023-01-16-11.18.31-photo-of-an-artificial-intelligence-posing-as-the-sculpture-The-Thinker-_f74cadbdaf.jpg" length="134594" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/c/c/csm_DALL_E-2023-01-16-11.18.31-photo-of-an-artificial-intelligence-posing-as-the-sculpture-The-Thinker-_f74cadbdaf.jpg" fileSize="134594" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-30474</guid>
                            <pubDate>Tue, 17 Jan 2023 08:49:31 +0100</pubDate>
                            <title>Optimale Ausleuchtung im OP</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/optimale-ausleuchtung-im-op</link>
                            
                            <description>Für die Sicherheit im Operationssaal ist die bestmögliche Ausleuchtung ein zentraler Faktor. Bewegliche OP-Leuchten stellen allerdings zurzeit noch eine Herausforderung für die Aufrechterhaltung der Sterilität und für den ungestörten Fluss der Arbeitsabläufe dar. Das Forschungsprojekt „Smart OT“ unt</description>
                            <content:encoded><![CDATA[<p>Wissenschaftlerinnen und Wissenschaftler arbeiteten in dem 2022 abgeschlossenen Projekt eng mit Praktikern zusammen, damit die Technologien eine spürbare Arbeitserleichterung für Chirurginnen und Chirurgen ermöglichen. Ein Prototyp wurde jetzt am Pius Hospital in Oldenburg installiert. Die Weiterentwicklung zur Marktreife wird von den Beteiligten als sehr aussichtsreich eingeschätzt. Auch ein Patent ist mittlerweile aus dem Projekt hervorgegangen.</p><p>Vorrangiges Ziel des beteiligten Konsortiums aus Wissenschaft und Medizintechnik-Unternehmen war die Entwicklung eines intelligenten OP-Beleuchtungssystems, das jederzeit für eine gleichmäßige und möglichst perfekte Ausleuchtung der operierten Stelle sorgt, ohne dass eine manuelle Bedienung erforderlich ist. Die Vorteile: Chirurginnen und Chirurgen haben die Hände frei und verfügen stets über eine gute Sicht, auch wenn sich Menschen im Raum bewegen. So wird die Arbeitsplatzbelastung der OP-Mitarbeitenden reduziert und gleichzeitig die Patientensicherheit erhöht, da parallel auch die Sterilität verbessert wird.</p><p>&nbsp;</p><p><strong>Anwenderinnen und Anwender von Anfang an eingebunden</strong></p><p>Die Hardware wurde im Rahmen des Projekts maßgeblich von den Firmen Dr. Mach und Qioptiq Photonics entwickelt. Die Arbeitsgruppe "Computergrafik und virtuelle Realität"&nbsp;des TZI lieferte die Software zur autonomen Beleuchtungssteuerung. „Eine Herausforderung lag dabei in der optimalen Anordnung und Koordination einer Vielzahl kleiner Leuchten, die anstelle der bisherigen großen Lampen zum Einsatz kommen“, sagt Professor Gabriel Zachmann, der die Arbeitsgruppe am TZI leitet.<br><br> Damit Chirurginnen und Chirurgen die Beleuchtung bei Bedarf mit wenig Aufwand nachjustieren können, ergänzte die Arbeitsgruppe „Digital Media Lab“ von Professor Rainer Malaka des TZI das System um die Möglichkeit der Gesten- und Sprachsteuerung.</p><p>In Oldenburg war die Universität mit dem Pius-Hospital (Professor Dirk Weyhe) und das Klinische Innovationszentrum für Medizintechnik Oldenburg (KIZMO) beteiligt. Sie stellten die Praxistauglichkeit des Systems sicher. Das Projekt „Smart-OT“ („Intelligenter Operationssaal“) wurde vom Bundesministerium für Bildung und Forschung (BMBF) mit 1,2 Millionen Euro gefördert.</p><p><strong>Video zum Projekt:</strong><br><a href="http://www.youtube.com/watch?v=FwVas5Euevw&amp;t=69s" target="_blank" rel="noreferrer">www.youtube.com/watch?v=FwVas5Euevw&amp;t=69s</a></p><p><br><strong>Weitere Informationen:</strong><br><a href="http://www.smart-ot.de/" target="_blank" rel="noreferrer">www.smart-ot.de</a></p><p><strong>Bislang veröffentlichte Studien der Arbeitsgruppe „Computergrafik und Virtuelle Realität“:</strong><br><a href="https://cgvr.cs.uni-bremen.de/publications/" target="_blank" rel="noreferrer">https://cgvr.cs.uni-bremen.de/publications/</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/a/9/csm_Smart-OT-Prototyp_d6ba22ef82.jpg" length="178340" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/a/9/csm_Smart-OT-Prototyp_d6ba22ef82.jpg" fileSize="178340" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-30577</guid>
                            <pubDate>Thu, 26 Jan 2023 09:51:49 +0100</pubDate>
                            <title>Global Game Jam (GGJ) </title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/global-game-jam-ggj</link>
                            
                            <description>Der Global Game Jam (GGJ) ist ein weltweit parallel stattfindendes Event, bei dem Spieler zu Entwicklern werden und innerhalb von 49 Stunden ein Computer- oder ein Brettspiel erstellen.</description>
                            <content:encoded><![CDATA[<p>Gemeinsam in einer Gruppe entwickelst du ein Konzept, kreierst die Spielwelt und erstellst die eigentliche Spiellogik. Am Ende des Programmier-Marathons treten alle Gruppen gegeneinander an und stellen ihre Spiele vor, um die besten Spiele des GGJ zu wählen. Im Fokus steht allerdings der Spaß am gemeinsamen beratschlagen, entwickeln und spielen. Gruppen können schon im Voraus gebildet werden oder auch erst vor Ort entstehen. Du musst kein professioneller Spieleentwickler sein. Wichtig sind Kreativität und eine ordentliche Portion Begeisterung. Zu Beginn wird ein geheimes Thema veröffentlicht, welches in die Spiele mit einfließen muss. So können die Teilnehmer spontan ihrer Fantasie freien Lauf lassen. Zusätzlich werden einige Regeln für Extrapunkte in der Spielebewertung bekanntgegeben.</p><p>Der GGJ ist eine spannende, herausfordernde und lustige Veranstaltung, die sowohl Enthusiasten als auch professionellen Spieleentwicklern die Möglichkeit bietet, in einem ganz besonderen Rahmen zusammen zu kommen, zu “jammen” und mit ihren Spielen ein internationales Publikum zu erreichen.</p><p><strong>Die Teilnahme ist kostenlos!</strong></p><p>Zeit und Ort: 03.-05. Feburar 2023<br> Discord: <a href="https://t.co/Qbas5ig0gi" target="_blank" rel="noreferrer">https://discord.gg/</a>C2QtkZg8Ga<br> Registrierung: <a href="https://globalgamejam.org/2023/jam-sites/global-game-jam-bremen" target="_blank" rel="noreferrer">https://globalgamejam.org/2023/jam-sites/global-game-jam-bremen</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/8/3/csm_ggj2023_poster-web_169729c5df.jpg" length="431766" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/8/3/csm_ggj2023_poster-web_169729c5df.jpg" fileSize="431766" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-31177</guid>
                            <pubDate>Tue, 04 Apr 2023 15:20:12 +0200</pubDate>
                            <title>Roboterschwarm übt Mars-Exploration</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/roboterschwarm-uebt-mars-exploration-2</link>
                            
                            <description>Die TZI-Arbeitsgruppe Computergrafik entwickelt ein virtuelles Testfeld für die Kooperation unterschiedlichster Robotersysteme.</description>
                            <content:encoded><![CDATA[<p>Die Exploration des Mars kann gelingen, wenn Roboter mit unterschiedlichen Fähigkeiten zusammenarbeiten – am besten autonom. Wichtige Voraussetzungen dafür werden im Rahmen des Projekts „VaMEx-3“ geschaffen, an dem drei Arbeitsgruppen der Universität Bremen maßgeblich beteiligt sind.</p><p>Die Oberfläche des Mars stellt eine Herausforderung für die Wissenschaft dar: Interessanteste Entdeckungen werden vor allem an denjenigen Stellen vermutet, die aufgrund des steinigen und zerklüfteten Terrains am schwersten zugänglich sind. Um sie untersuchen zu können, müssen Roboter mit unterschiedlichen Fähigkeiten kooperieren: laufen, klettern, fliegen – auch der Transport von Nutzlasten und die Energieversorgung müssen gesichert sein. Das Projekt VaMEx-3, das von der Deutschen Raumfahrtagentur im DLR mit Mitteln des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) gefördert wird, ermöglicht die Zusammenarbeit zwischen verschiedenen Robotersystemen, die eines Tages auf dem Mars landen sollen.</p><p>Zentral daran beteiligt sind die Arbeitsgruppe Computergrafik am Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen unter Leitung von Professor Gabriel Zachmann, die Arbeitsgruppe Kognitive Neuroinformatik von Professorin Kerstin Schill und die Arbeitsgruppe High-Performance Visualization (HPV) von Professor Andreas Gerndt. Das VaMEx-3-Projekt besteht aus vier parallel durchgeführten Teilprojekten mit Partnern aus ganz Deutschland. Es hat ein Gesamtfördervolumen von rund fünf Millionen Euro.</p><p><strong>Simulation der Mars-Erkundung in Echtzeit</strong></p><p>In Vorläuferprojekten haben die TZI-Wissenschaftler bereits rund 40 Quadratkilometer Marsoberfläche auf der Basis von Scans der NASA virtuell nachgebildet, um ein Testumfeld für die benötigten Technologien zu errichten. Anschließend setzten die Projektpartner digitale Versionen ihrer Robotersysteme in diesem Virtuellen Zwilling der realen Marslandschaft aus.</p><p>„Bisher agierte jedes Schwarm-Mitglied noch weitgehend für sich allein“, berichtet Projektkoordinator Dr. René Weller von der Arbeitsgruppe Computergrafik am TZI. „Jetzt geht es darum, sie kooperativ zusammenzubringen.“ Über Schnittstellen sollen die unterschiedlichen Systeme in die Lage versetzt werden, in Echtzeit zu interagieren – und zwar weitgehend autonom.</p><p>Das Testumfeld muss dabei höchsten Ansprüchen genügen: „Der Virtuelle Zwilling muss realistische Aussagen ermöglichen, dass der Schwarm in Zukunft auf dem Mars genauso funktionieren wird“, betont Professor Zachmann. Auch muss das Testumfeld bestehende Schwächen aufzeigen, wenn beispielsweise die Erkennung bestimmter Objekte bei einem Roboter noch nicht ausreichend funktioniert. Für die Informatik ist es eine Herausforderung, alle Fahrzeuge schnell genug zu simulieren und dabei – unter anderem – auch die Kamerabilder und Lidar-Scans in Echtzeit nachzubilden.</p><p><strong>Navigation ohne GPS, Galileo und befestigte Wege</strong></p><p>Während die Arbeitsgruppe Computergrafik sich auf die Weiterentwicklung des Testfelds fokussiert, leitet die Arbeitsgruppe Kognitive Neuroinformatik das Teilprojekt „Robust Ground Exploration“ (robuste Bodenerkundung). Ein zentraler Punkt ist dabei die Entwicklung eines gemeinsamen Navigationsverfahrens, denn auf dem Mars hilft die irdische Satellitennavigation nicht weiter. Dafür wird an der Universität Bremen die Software entwickelt. Darüber hinaus soll die Robustheit der Systeme gesteigert werden, um den schwierigen Umweltbedingungen standzuhalten und mit unerwarteten Situationen umzugehen.&nbsp;</p><p>„Eine Herausforderung ist, dass die Umgebung im Vorfeld teilweise unbekannt ist“, erklärt Dr. Joachim Clemens, der das Teilprojekt koordiniert. „Daher müssen die Schwarm-Mitglieder Hindernisse selbstständig erkennen, eine Karte der Umgebung erstellen und ihre Position in der Karte schätzen. Dabei kooperieren die Einheiten miteinander: Karten- und Positionsinformationen werden ausgetauscht, damit alle Einheiten davon profitieren können. Diese Informationen nutzen die Schwarmteilnehmer anschließend, um das weitere Vorgehen zu planen und sich dabei abzustimmen.“</p><p>Ein weiterer Aspekt des Teilprojekts ist die Entwicklung und Integration eines Missionskontrolltools. Dieses System soll zum einen die Visualisierung des aktuellen Status der Mission und zum anderen die Kommunikation der Wissenschaftlerinnen und Wissenschaftler mit dem VaMEx-Schwarm ermöglichen. Die an den Schwarm übermittelten Informationen, beispielsweise über wissenschaftlich relevante Zielgebiete, werden in die autonome Planung des Systems eingebracht und im weiteren Missionsverlauf berücksichtigt. Entwickelt wird das Missionskontrolltool von der Arbeitsgruppe High-Performance Visualization an der Universität Bremen.</p><p><strong>Auf der Suche nach Wasser und Zeichen von Leben</strong></p><p>In drei bis vier Jahren ist eine größere Demonstrationskampagne geplant, um den Roboterschwarm in einem marsähnlichen Testgebiet ausführlich zu erproben. Fernziel der Mission VaMEx ist es, auf dem Mars das Canyon-System Valles Marineris zu erkunden, um Hinweise auf Wasservorkommen und biologische Spuren aus klimatisch lebensfreundlicheren Epochen des Mars zu finden. Die „Mariner-Täler“, benannt nach einer der ersten Mars-Raumsonden der NASA, bilden mit einer Ausdehnung von 4.000 Kilometern und einer Tiefe von stellenweise bis zu 10.000 Metern das größte Canyon-Geflecht des Sonnensystems.</p><p>Neben der Universität Bremen sind auch folgende Partner an VaMEx-3 beteiligt: ANavS GmbH, Deutsches Zentrum für Luft- und Raumfahrt (DLR), DFKIRobotics Innovation Center, DSI Aerospace Technologie GmbH, INVENT GmbH, TU Braunschweig, TU München, Universität Erlangen-Nürnberg, Universität der Bundeswehr München und Universität Würzburg.</p><p><strong>Fragen beantwortet:</strong></p><p>Dr. René Weller<br> Telefon +49 421 218-63992<br> E-Mail: <a href="#" data-mailto-token="ocknvq,ygnngtBeu0wpk/dtgogp0fg" data-mailto-vector="2">weller<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>cs.uni-bremen<span class="d-none">protect me ?!</span>.de</a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/7/6/csm_OrbiterViz_k_0f1346b2b0.jpg" length="75884" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/7/6/csm_OrbiterViz_k_0f1346b2b0.jpg" fileSize="75884" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-31896</guid>
                            <pubDate>Thu, 15 Jun 2023 11:44:43 +0200</pubDate>
                            <title>Interaktive Visualisierung von Software für räumlich verteilte Teams</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/interaktive-visualisierung-von-software-fuer-raeumlich-verteilte-teams-2</link>
                            
                            <description>Das TZI untersucht im Rahmen eines DFG-geförderten Projekts neue Verfahren zum besseren Verstehen komplexer Software.</description>
                            <content:encoded><![CDATA[<p>Ein umfassender Überblick über den Aufbau und die Arbeitsweise einer Software ist für deren Wartung und Weiterentwicklung essenziell. Räumlich verteilt arbeitenden Teams fällt es jedoch oft schwer, ein gemeinsames Verständnis komplexer Projekte zu entwickeln. Das TZI der Universität Bremen untersucht daher in einem neuen Forschungsprojekt verschiedene Möglichkeiten, kollaborative Verstehensprozesse zu unterstützen. In dem zweijährigen Projekt, das von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird, setzt die Arbeitsgruppe Softwaretechnik unter Leitung von Prof. Rainer Koschke auf neue Medien und Technologien der Softwarevisualisierung.</p><p><strong>Missverständnisse und Fehlinterpretationen verringern</strong></p><p>Beim kollaborativen Verstehen versuchen mehrere Beteiligte gemeinsam, sich ein Modell des Aufbaus und des Verhaltens eines Programms zu erarbeiten. „Dabei können sie wechselseitig von den unterschiedlichen Perspektiven und Expertisen anderer Gruppenmitglieder profitieren“, erklärt Koschke. „Meistens ist es hilfreich, ein gemeinsames Modell zu externalisieren – also für alle sichtbar und explizit zu machen, um die Gefahr von Missverständnissen und Fehlinterpretationen zu verringern.“</p><p>Häufig erstellen die Beteiligten in solchen Situationen spontane Skizzen auf dem Whiteboard, beispielsweise vom statischen Aufbau eines Programms. „Nicht selten werden die diskutierten Sachverhalte nur aus dem Gedächtnis der Beteiligten rekonstruiert, was in vielen Fällen eine ungenaue, manchmal sogar unzutreffende Idealisierung wiedergibt“, so Koschke. Helfen können automatisierte Programmanalysen, allerdings müssen deren Ergebnisse häufig erst zusammengefasst und abstrahiert werden, um verständlich zu sein.</p><p>Im aktuellen Projekt wollen die Wissenschaftler sowohl herkömmliche Desktop-Hardware und Tablet-Geräte als auch fortschrittlichere Hardware für virtuelle Realität (VR) und erweiterte Realität (AR, engl. „augmented reality“) so integrieren, dass Mitglieder eines Entwicklungsteams ein einheitliches und zutreffendes Bild ihrer Software über räumliche Distanzen hinweg bekommen. Die Visualisierung von Software für Gruppen statt einzelnen Betrachtern ist bis jetzt wenig erforscht.</p><p><strong>Dreidimensionale Darstellungen in „Code Cities“</strong></p><p>Das Ziel besteht nicht darin, völlig neue Formen der Visualisierung zu erschaffen. Koschke und sein Team wollen stattdessen auf dem Konzept der sogenannten „Code Cities“ aufbauen. Dabei lassen sich verschiedene Metriken kombinieren, um eine dreidimensionale Landschaft zu bilden, die einer amerikanischen Innenstadt mit gitterförmig angeordneten Hochhäusern ähnelt.</p><p>„Eine kollaborative Visualisierung sollte es allen Nutzerinnen und Nutzern erlauben, gleichzeitig von verschiedenen Perspektiven aus auf die Software zu blicken, unterschiedliche Details in den Fokus zu nehmen und individuell mit der Visualisierung zu interagieren“, erläutert Koschke. „Dabei sollten die Nutzer sich auch in der Visualisierung wechselseitig sehen können, damit sie erkennen können, welche Perspektive ein anderer gerade einnimmt, um Aussagen richtig einordnen zu können. Idealerweise sollte dabei auch nonverbale Kommunikation möglich sein.“</p><p>Die Ergebnisse des Projekts werden in empirischen Langzeitstudien mit den Unternehmen Axivion GmbH (Stuttgart), Contact Software GmbH (Bremen) und Viessman Elektronik GmbH (Allendorf/Eder) erprobt. Das TZI wird die Forschungsdaten darüber hinaus in einer Open-Source-Lizenz öffentlich zur Verfügung stellen.</p><p><strong>Weitere Informationen:</strong></p><p>Prof. Dr. Rainer Koschke<br> Tel. 0421 218-64481<br> E-Mail koschke@uni-bremen.de</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/d/4/csm_Software-Visualisierung_f2a1df6bf9.png" length="2243460" type="image/png"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/d/4/csm_Software-Visualisierung_f2a1df6bf9.png" fileSize="2243460" type="image/png"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-32145</guid>
                            <pubDate>Tue, 11 Jul 2023 10:38:01 +0200</pubDate>
                            <title>Auszeichnung für Forschungs- verbund VIVATOP</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/vivatop-auszeichnung-fuer-forschungsverbund</link>
                            
                            <description>Die erfolgreiche Entwicklung von 3D-Technologien für den Operationssaal wurde bei der CHI 2023 in Hamburg mit einer „Honorable Mention“ gewürdigt.</description>
                            <content:encoded><![CDATA[<p>Drei Jahre lang haben Wissenschaftler:innen und Entwickler:innen des Forschungsverbunds VIVATOP unter Leitung der Universität Bremen neue 3D-Technologien entwickelt, die eine schnelle und präzise OP-Vorbereitung für chirurgische Eingriffe ermöglichen. Die Ergebnisse des Projekts helfen auch bei der Durchführung einer Operation, bei der Einbindung von weiteren Spezialist:innen an anderen Standorten sowie beim chirurgischen Training junger Ärzt:innen anhand von realistischen Organ-Modellen.</p><p>Die Demonstration der Forschungsergebnisse überzeigte die Jury bei der Konferenz CHI 2023 (Conference on Human Factors in Computing Systems) in Hamburg: Sie vergab eine „Honorable Mention“ an VIVATOP. Insgesamt hatten sich rund 60 weitere Projekte aus aller Welt vor Ort präsentiert.</p><p>Am Technologie-Zentrum Informatik und Informationstechnik der Universität Bremen waren die Arbeitsgruppen Digitale Medien (Prof. Rainer Malaka) und Computergrafik (Prof. Gabriel Zachmann) an den Forschungsarbeiten beteiligt. Gemeinsam mit Oldenburger Wissenschaftler:innen und überregionalen Industriepartner:innen hatten sie im Rahmen von VIVATOP moderne Technologien wie virtuelle Realität, erweiterte Realität und 3D-Druck für die Chirurgie nutzbar gemacht.</p><p>Bei der CHI 2023 zählte das Projekt zu den Highlights. „Es war toll zu sehen, wie viel Interesse für unsere Projektdemo gezeigt wurde“, berichtet Dr. Anke Reinschlüssel, die zusammen mit Dr. Thomas Münder maßgeblich an der Koordination und Umsetzung von VIVATOP beteiligt war. „Wir haben viele potenzielle Kontakte mit anderen internationalen Forscher:innen geknüpft, was zeigt, wie relevant das Thema ist.“</p><p><strong>Organe als virtuelle und physische 3D-Modelle greifbar gemacht</strong></p><p>Chirurg:innen haben nun die Möglichkeit, realitätsgetreue 3D-Modelle der betroffenen Organe zu erstellen, die sowohl digital visualisiert als auch per 3D-Druck physisch greifbar gemacht werden können. Das Projektkonsortium legte den Fokus dabei hauptsächlich auf die Leber, fügte aufgrund der Pandemie aber auch die Darstellung von Lungen hinzu, um die Diagnose von COVID-19 Erkrankungen zu unterstützen.</p><p>Die Universitätsmedizin Oldenburg war mit dem Viszeralchirurgen Professor Dirk Weyhe vom Pius-Hospital Oldenburg als Anwendungspartner beteiligt. Die Prototypen aus dem VIVATOP-Projekt bestanden dort die klinische Erprobung.</p><p>Gefördert wurde das Projekt vom Bundesministerium für Bildung und Forschung (BMBF) mit insgesamt 2,2 Millionen Euro. Die Projektpartner überführen die Ergebnisse bereits in den Praxisalltag und die chirurgische Ausbildung.</p><p>&nbsp;</p><p><strong>Weitere Informationen:</strong></p><p>Projekt-Website<br><a href="https://vivatop.de/" target="_blank" rel="noreferrer">https://vivatop.de</a></p><p>Konferenz-Beitrag<br><a href="https://dl.acm.org/doi/10.1145/3544549.3583895" target="_blank" rel="noreferrer">https://dl.acm.org/doi/10.1145/3544549.3583895</a></p><p><em>Foto:</em><br><a href="https://www.instagram.com/fotoduda/" target="_blank" rel="noreferrer"><em>@fotoduda</em></a></p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/5/d/csm_Chi23Mondayfotoduda034_5c0423e67d.jpg" length="908462" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/5/d/csm_Chi23Mondayfotoduda034_5c0423e67d.jpg" fileSize="908462" type="image/jpeg"/><media:description type="plain">CHI 2023, Hamburg - Monday 24.04.2023
CCH Hamburg 

Foto:  Ulf Duda / fotoduda.de</media:description><media:copyright>Foto: © Ulf Duda / fotoduda.de / Muehlenteichstr.17, 26316 Varel / Mobil: 0176/21029819 / Mail: info@fotoduda.de</media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-34143</guid>
                            <pubDate>Tue, 23 Jan 2024 11:53:46 +0100</pubDate>
                            <title>Gemeinsam Spiele erfinden beim „Global Game Jam 2024“</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/gemeinsam-spiele-erfinden-beim-global-game-jam-2024</link>
                            
                            <description>Vom 26.-28.1 richtet das Digital Media Lab des TZI das regionale Event des „Global Game Jam 2024“ aus. Die Teilnehmenden bilden Gruppen, um innerhalb von 48 Stunden ein Spiel zu entwickeln – wobei der Spaß und die Kreativität im Vordergrund stehen. Alle Interessierten sind zzu dem Event eingeladen.</description>
                            <content:encoded><![CDATA[<p>Spielen ist für die meisten Menschen ein Grundbedürfnis. So erklärt sich die weltweite Beliebtheit des „Global Game Jam“, der seit 2009 jährlich ausgetragen wird und im vergangenen Jahr bereits mehr als 40.000 Teilnehmende in über 100 Ländern anlockte. Das Digital Media Lab am Technologie-Zentrum Informatik und Informationstechnik (TZI) der Universität Bremen lädt alle Interessierten am letzten Januar-Wochenende auf den Uni-Campus ein, um gemeinsam neue Spielideen zu entwickeln und auszuprobieren.</p><p>Vorkenntnisse im Programmieren sind nicht erforderlich – die Kreativität und der Teamgeist stehen im Vordergrund. Auch klassische Brettspiele sind willkommen. Die Teilnehmenden entwickeln vor Ort zunächst ihre Spielideen zum vorgegebenen Thema und bilden Gruppen, um gemeinsam ein Konzept, eine Spielwelt und die eigentliche Spiellogik zu erstellen. Nach 48 Stunden präsentieren die Teilnehmenden ihre Ergebnisse und küren die besten Spiele. Die Gruppen können schon im Vorfeld gebildet werden oder auch spontan vor Ort.</p><p>Mitzubringen sind ein Laptop mit der individuell benötigten Software, Papier und Stifte für die Planungsphase und natürlich Essen und Trinken für die 48 Stunden, denn manche Teilnehmenden bleiben die komplette Zeit vor Ort. Das Bremer Event findet im <strong>Mehrzweckhochhaus (MZH), Ebene 0 statt (Bibliothekstraße 5, 28359 Bremen)</strong>. Start ist am Freitag, 26. Januar, um 16 Uhr. Die Registrierung ist vorab online möglich, kann aber auch noch spontan vor Ort erfolgen.</p><p><strong>Anmeldungen und weitere Infos:</strong></p><p>&nbsp; &nbsp;&nbsp;<a href="http://uni-bremen.de/ggj" target="_blank" rel="noreferrer">uni-bremen.de/ggj</a></p><p>Fragen beantwortet das Organisationsteam des Digital Media Lab per E-Mail:</p><p>&nbsp; &nbsp;&nbsp;<a href="#" data-mailto-token="ocknvq,iilBvbk0fg" data-mailto-vector="2">ggj<span class="d-none">protect me ?!</span><i class="fa fa-at" aria-hidden="true"></i>tzi<span class="d-none">protect me ?!</span>.de</a></p><p>&nbsp;</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/9/a/csm_GGJ2024_4117586338.jpg" length="201656" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/9/a/csm_GGJ2024_4117586338.jpg" fileSize="201656" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
                    
                        <item>
                            <guid isPermaLink="false">news-39332</guid>
                            <pubDate>Mon, 24 Nov 2025 09:38:00 +0100</pubDate>
                            <title>Studienpreis für Dr. Thomas Eßmeyer für Dissertation zu Dark Patterns</title>
                            <link>https://www.uni-bremen.de/tzi/forschung/leitthema-empowering-digital-media/nachrichten/studienpreis-fuer-dr-thomas-essmeyer-fuer-dissertation-zu-dark-patterns</link>
                            
                            <description>TZI-Mitarbeiter Dr. Thomas Eßmeyer hat am 18. November für seine Dissertation zum Thema „Mitigating Dark Patterns through Responsible Design – Ethical Design Considerations for User-Centred Technologies” den Bremer Studienpreis erhalten.</description>
                            <content:encoded><![CDATA[<p>Der Preis wird jährlich vom Verein Unifreunde Bremen mit der Universität Bremen und der Constructor University für hervorragende Masterarbeiten und Dissertationen vergeben. In diesem Jahr wurden bei einer Feier im Festsaal der Bremischen Bürgerschaft insgesamt acht Absolventinnen und Absolventen beider Universitäten geehrt. Der Preis für eine Dissertation ist mit 1.000 Euro dotiert, der Preis für eine Master- oder Staatsexamensarbeit mit 500 Euro.</p><p>Dr. Thomas Eßmeyer ist Mitarbeiter der Arbeitsgruppe Digitale Medien unter Leitung von Prof. Rainer Malaka. „Jede digitale Schnittstelle ist das Ergebnis von Absichten, Anreizen und Designphilosophien“, beschreibt er seine Dissertation. „Sie können zu benutzerfreundlichen und befähigenden Technologien führen oder zu ausbeuterischen und manipulativen Technologien, die Benutzer zu Handlungen verleiten, die sie später vielleicht bereuen. In den letzten zehn Jahren hat die HCI-Forschung (Mensch-Computer-Interaktion) das letztere Phänomen untersucht und es als irreführende Designstrategien oder ‚Dark Patterns‘ beschrieben.“ In seiner Arbeit beschäftigt er sich mit Dark Patterns, um – unter anderem – die zugrunde liegenden Mechanismen zu untersuchen. „Das gewonnene Wissen kann zur Entwicklung von Tools führen, mit denen Dark Patterns besser verstanden und ihre Auswirkungen gemildert werden können.“</p><p>Die Dissertation kann hier abgerufen werden:<br><a href="https://media.suub.uni-bremen.de/entities/publication/12432558-caf9-403b-aee7-6f4ce0cecbc6" target="_blank" rel="noreferrer">media.suub.uni-bremen.de/entities/publication/12432558-caf9-403b-aee7-6f4ce0cecbc6</a></p><p><br>Bildunterschrift:<br>Dr. Thomas Eßmeyer (rechts im Bild neben Wissenschaftssenatorin Dr. Henrike Müller) mit den anderen sieben Preisträger:innen sowie Vertreter:innen der Universitäten und der Unifreunde.<br>Foto: Universität Bremen / Jens Lehmkühler</p>]]></content:encoded>
                            <category>News</category>
                            
                            <enclosure url="https://www.uni-bremen.de/fileadmin/_processed_/b/7/csm_studienpreis2025w_c17351addc.jpg" length="523572" type="image/jpeg"/><media:content url="https://www.uni-bremen.de/fileadmin/_processed_/b/7/csm_studienpreis2025w_c17351addc.jpg" fileSize="523572" type="image/jpeg"/><media:description type="plain"></media:description><media:copyright></media:copyright>
                        </item>
                    
                
            
        </channel>
    </rss>

