Die Teilnehmerinnen und Teilnehmer des Sächsischen Landeswettbewerbes Jugend forscht 2024 stehen fest. Hier erfahren Sie mehr über ihre Projekte.
Lias Farin Csepregi (17)
Chemie (Standnummer 1)
Biodiesel aus Kaffeeöl
Motivation / Ziel:
In meinem Projekt ging es darum, aus Kaffeesatz Kaffeeöl zu extrahieren, um Biodiesel daraus herzustellen. Dabei wurden Analysen zu Brennwert, Viskosität und zur Säurezahl durchgeführt und mit Diesel bzw. Biodiesel aus anderen pflanzlichen Ölen verglichen. Da Kaffeesatz oft weggeschmissen wird und ich ihn gerne trinke, interessierte mich diese Thematik sehr.
Methode:
Zunächst wurde der Kaffeesatz getrocknet. Anschließend wurde in einem Ölbad das Kaffeeöl mit n-Hexan extrahiert. Mit einer Saugflasche und Kaffeefilter wurden die groben Kaffeesatzreste vom n-Hexan-Kaffeeöl-Gemisch getrennt. Ein Rotationsverdampfer trennte das n-Hexan vom Kaffeeöl. Daraufhin wird zum Öl Natriummethanolat gegeben, wodurch Biodiesel entsteht. Mit einer Verbrennungskalorimetrie wurde der Brennwert bestimmt. Durch das Prinzip des Kugelfallviskosimeters konnte ein grober Wert zur Viskosität ermittelt werden und mithilfe einer Titration wurde die Säurezahl errechnet.
Ergebnisse und wissenschaftlicher Beitrag:
Aus dem Kaffeesatz konnten etwa 10 Prozent Öl extrahiert werden. Nach Zugabe vom Natriummethanolat entstehen 75 Prozent Biodiesel. Der Brennwert ist nur geringfügig kleiner als von Biodiesel aus Literaturquellen. Die Viskosität des Biodiesels ist kleiner als die des Sonnenblumenöls, was zu beweisen war. Auch die Säurezahl lag deutlich unter 0,5 mg KOH/g. Insgesamt sind die analytischen Aspekte erfüllt, wodurch die Qualität meines Biodiesels positiv für sich sprechen.
Herausforderung und weitere Forschungsfragen:
Der Vergleich mit Literaturquellen und die Nutzung von bspw. Dichten aus der Literatur können Einfluss auf die Ergebnisse und Vergleiche nehmen. Weitere Forschungsfragen, die sich ergaben:
- Wie ist die Energiebilanz des Biodiesels aus Kaffeeöl?
- Ist der Biodiesel aus Kaffeeöl besser als Biodiesel aus Sonnenblumenöl, etc.?
- Ist die Extraktion von Kaffeeöl aufwändiger als die von anderen Ölen?
- Welche Methoden zur Extraktion können Industrien nutzen?
David Kretzschmar (18)
Chemie (Standnummer 2)
Bau und Optimierung von mikrobiellen Brennstoffzellen
Motivation / Ziel:
In Deutschland legen wir beim Ausbau der erneuerbaren Energien vor allem Fokus auf Wind- und Solarenergie, doch wie decken wir unseren Strombedarf an wolkigen und windstillen Tagen? Eine mögliche Lösung könnten mikrobielle Brennstoffzellen darstellen. Jene sind bioelektrochemische Systeme, die mithilfe von in organischem Schlamm lebenden Bakterien Strom erzeugen. Mein Ziel war es, zuerst einige Prototypen aufzubauen, und sie dann mithilfe von verschiedenen Variationen aus verschiedenen Naturwissenschaften zu optimieren. Ist eine gesicherte Stromproduktion möglich und wie hoch ist die Effizienz?
Methode:
Zuerst habe ich zwei Prototypen mit Schlamm aus der Elbe und dem Moritzburger Mittelteich gebaut. Um die mikrobiellen Brennstoffzellen zu optimieren, wandte ich verschiedene Variationen an. Ich verwendete unter anderem Schlamm aus der Ostsee, gab verschiedene organische Zusatzstoffe in den Schlamm oder pflanzte vorher kultivierte Reispflanzen in den Schlamm ein. Das Ziel war immer, die Leistung so hoch wie möglich zu treiben. Mit einer selbst gelöteten Widerstandsplatine maß ich schließlich noch die Leistung bei 10 verschiedenen Widerständen.
Ergebnisse und wissenschaftlicher Beitrag:
Die Messungen haben gezeigt, dass die Leistung der mikrobiellen Brennstoffzellen zwar sehr konstant, jedoch im Vergleich zu anderen Brennstoffzellen oder Batterien sehr gering ist. Die Variationen wirkten sich aber sehr positiv auf die Leistung aus, die teilweise bis 30 Prozent erhöht wurde. Die Bedingungen für einen Betrieb sind dagegen sehr speziell, weswegen eine praktische Umsetzung aktuell noch schwer umsetzbar und teuer ist. Darüber hinaus ist die Effizienz so gering, dass sich mikrobielle Brennstoffzellen für die Erzeugung von Strom aktuell nicht eignen.
Herausforderungen und weitere Forschungsfragen:
Die große Schwierigkeit war, die mikrobiellen Brennstoffzellen konstant „am Leben“ zu halten. Schon leicht veränderte Bedingungen können sich gravierend auf die Bakterien auswirken. Deshalb waren nicht alle Versuche erfolgreich. Das ziel künftiger Forschung sollte es also sein, nicht nur die Leistung und Effizienz, zum Beispiel durch andere Schlammmischungen oder alternative Elektroden, zu erhöhen, sondern auch die notwendigen speziellen Bedingungen zu gewährleisten. Dadurch könnten mikrobielle Brennstoffzellen sowohl für die Wissenschaft, als auch für die Wirtschaft attraktiv werden.
Niklas Sylvester Rauh (18)
Chemie (Standnummer 3)
Entschlüsselung von Biomarkern mit KI
Motivation / Ziel:
Es wurden Raman Spektren von Blut erstellt. Ein Lernalgorithmus versucht anhand der Raman Spektren Vorhersagen bezüglich eines Wertes zu treffen. Diese Lernalgorithmen werden für eine bessere Vorhersage optimiert. So lassen sich zum einen Biomarker oder Krankheitsbilder vorhersagen. Zum anderen lassen sich die Daten so aufbereiten, dass systematische Fehler der Labordiagnostik direkt erkannt werden. Somit bietet die Methodik umfangreiche Möglichkeiten zu einer Qualtitätssicherung der Labordiagnostik.
Methode:
Die Raman Spektren werden mithilfe maschinellem Lernens verarbeitet. Ein statistisches Modell trifft Vorhersagen. Es wurde ein Convolutional Neural Network verwendet. Ein großer Teil der Arbeit befand sich in Datensatzaufbereitung und Parameteranpassung der Algorithmen. Das Feld des maschinellen Lernens bie- tet viele Methoden zur Optimierung der Lernalgorithmen. Es reicht allerdings nicht die Daten einem Algorithmus einfach einzuspeisen. Die Daten müssen verstanden werden, um die Lernalgorithmen zu verbessern.
Ergebnisse und wissenschaftlicher Beitrag:
Umfangreiche Erkenntnisse bezüglich des Informationsgehaltes von Raman Spektren von Blut. Nicht nur molekulare Biomarker lasse sich erkennen, auch Infor- mation von Patient:innen oder Krankheit-(sgrade) lassen sich erkennen. Die Methodik bietet umfangreiche Möglichkeiten zur Qualitätssicherung der Labor- diagnostik.
Herausforderungen und weitere Forschungsfragen:
Der Datensatz war für maschinelles Lernen sehr klein. Dadurch ergaben sich statistische Probleme. An einem neuen, größeren Datensatz wird gearbeitet. Eben- falls enthielten die Raman Spektren viel ”nicht-interessante Information. Die Forschungsergebnisse lassen jedoch auf eine Vielzahl von Anwendungsmöglich- keiten der Methodik hoffen. Die Anwendungsmo ̈glichkeiten zu testen und zu entwickeln beginnt in naher Zukunft, mit dem neuen Datensatz.
Lino Riepenhausen (19)
Chemie (Standnummer 4)
Peptid-Inhibitoren für humanes Sirtuin 6
Motivation / Ziel:
Das Ziel dieser Arbeit ist die Synthese wirkungsvoller und selektiver Peptid-Inhibitoren für die humane Form des Enzyms Sirtuin 6. Sirtuin 6 spielt eine Rolle bei diversen Krankheiten und zellulären Prozessen, auf die Inhibitoren einen Einfluss haben könnten.
Methode:
Verschiedene Derivate eines Peptid-Inhibitor-Grundgerüsts mit unterschiedlichen Gruppen an Position 2 der Acyl-Gruppe der ϵ-Position der Seitenkette eines acylierten Lysinrests synthetisiert. Ihre Wirksamkeit wurde in einem HPLC-basierten Assay ermittelt und mit Inhibitoren bekannter Wirksamkeit verglichen. Zudem wurde die Selektivität der synthetisierten Inhibitoren gegenüber SIRT2 ebenfalls mit einem HPLC-basierten Assay untersucht.
Ergebnisse und wissenschaftlicher Beitrag:
SIRT6-Inhibitoren mit Modifikation der Position 2 der Acyl-Gruppe der ϵ-Position der Seitenkette eines acylierten Lysinrests, sind auf Grund der vergleichsweise niedrigen Inhibitorwirkung, als auch relativ niedrigen Selektivität, für die SIRT6 Inhibitordarstellung wahrscheinlich weniger geeignet als Inhibitoren mit Modifikationen der Position 3. Daher sollte der Fokus weiterer Entwicklungen von SIRT6-Inhibitoren auf Position 3 gerichtet werden.
Herausforderungen und weitere Forschungsfragen:
Welche Seitengruppen der Position 3 sind am besten als SIRT6-Inhibitoren geeigent, bezogen auf sowohl Wirkung, als auch Selektvität. Zusätzlich wäre es erwägenswert, die Moleküle für eine bessere intrazelluläre Verfügbarkeit zu modifizieren, um sie für in vivo Experimente geeigneter zu machen.
Clara Bläser (17)
Technik (Standnummer 5)
Parametrisches Design von Haifischschuppen
Motivation / Ziel:
Ich habe untersucht, wie man Haifischschuppen mit parametrischem Design erstellen kann. Das Ziel war es, einen Algorithmus zu entwickeln, der die natürlichen Formen nicht nur detail- liert nachempfinden kann, sondern auch auf geeigneten Parametern aufbaut. Das Ergebnis soll die Grundlage für komplexere Zusammensetzungen sein. Die entstehenden Oberflächenstruk- turen könnten dann der Verringerung des Strömungswiderstandes verschiedenster Fortbewe- gungs- und Transportmittel dienen und die stark vereinfachten Formen, die momentan ange- wendet werden, ablösen.
Methode:
Zunächst habe ich mithilfe von theoretischen Arbeiten und Scans die wichtigsten Merkmale der Schuppen vorläufig festgelegt. Zum Erstellen des Algorithmus habe ich c# genutzt. Meine Pro- grammierumgebung war Visual Studio und die Software, in der das Modell angezeigt wird, ist HyperganicCore. Die erstellten Schuppen sind Begrenzungsflächenmodelle, sie sind also über ihre begrenzenden Kurven und Flächen definiert. Beim Erstellen bin ich von dem Querschnitt ausgegangen und habe meinen Zwischenstand immer wieder mit Scans verglichen und ent- sprechend ergänzt.
Ergebnisse und wissenschaftlicher Beitrag:
Mein Ergebnis ist ein Algorithmus, der es schafft, die wichtigsten Merkmale einer Haifisch- schuppe nachzuempfinden. Er basiert auf den Parametern Länge, Breite, Höhe, Angriffswinkel, Anzahl der Rippen, Tiefe der Rillen und Differenz benachbarter Rippen. Diese Parameter sind nicht nur intuitiv, sondern ermöglichen auch eine große Zahl an möglichen Kombinationen. Mein Projekt zeigt somit nicht nur eine Möglichkeit, das Design von Haifischschuppen zu beschleuni- gen, sondern bietet vor allem Anknüpfungspunkte für Weiterentwicklungen und darauf aufbau- ende Projekte.
Herausforderungen und weitere Forschungsfragen:
Eine besondere Herausforderung war, dass die meisten Merkmale der Schuppen nicht eindeutig definiert sind. Da aber auch nicht jede Kurve als Parameter dargestellt werden kann, mussten bestimmte Eigenschaften vorläufig festgelegt werden. Daraus ergeben sich viele Möglichkeiten für die Festlegung neuer Parameter und die entsprechende Weiterentwicklung des Algorithmus. Ich habe mir deshalb die Frage gestellt, ob es möglich wäre, mit einem entsprechenden Ansatz den natürlichen Wachstumsprozess der Schuppen so nachzuempfinden, dass alle nicht natür- lich definierten Eigenschaften als Parameter auftreten.
Felix Manthey (18) / Viet Quoc Nguyen (18)
Technik (Standnummer 6)
Entwicklung eines Exzenterpressendemonstrators
Motivation / Ziel:
Wir befassten uns mit der Entwicklung eines verkleinerten Demonstrators für industrielle Exzenterpressen. Dabei war das Entwicklungsziel, dass dieser trotz der unumgänglichen Vereinfachungen (wegen der Skalierungsproblematik etc.) vollständig funktionsfähig bleibt. Er soll bald den Studierenden an der TUC beim Erlernen der Grundlagen der Werkzeugmaschinentechnik helfen und beispielsweise zur Demonstration des Pressenauslastungsdiagramms nutzbar sein. Wir beschäftigten uns mit diesem Thema, weil wir großes Interesse am Maschinenbau haben. In der Vergangenheit haben wir deshalb bereits verschiedene Praktika in diesem Fachgebiet absolviert.
Methode:
Zu Beginn haben wir uns durch Fachliteraturstudium mit dem aktuellen Stand der Werkzeugmaschinentechnik vertraut gemacht. Dadurch erlangten wir grundlegendes Verständnis der Exzenterpressen und konnten anschließend mit der Entwicklung unserer Maschine beginnen. Wir gingensehrmethodischvorundverwendetenArbeitstechnikenwiedenmorphologischenKastenund den Lösungsvariantenvergleich nach Pahl/Beitz. Den konstruktiven Teil des Entwicklungsprozesses setzten wir mit der CAD-Software Autodesk-Inventor um, wobei wir beispielweise auch FEM-Analysen durchführten, wenn es um die Gestaltung von kritischen Baugruppen ging.
Ergebnisse und wissenschaftlicher Beitrag:
Die Lebenszyklus-Analyse ergab einen erstaunlich positiven Ausgang. Das PV-Modul hat bereits nach unter zwei Jahren die Menge an Energie selbst bereitgestellt, die über die ganze Lebenszeit des Moduls benötigt würde. Bei einer Laufzeit von über 20 Jahren ist das ein sehr gutes Ergebnis. Der Großteil der Emissionen kommt durch die Herstellung zustande, dort müsste also weiterhin eingespart werden. Problematisch könnte der Flächenverbrauch werden, was weitere Forschungen z.B. zum Thema Agri-PV erfordern wird.Wir konnten sowohl rechnerisch als auch konstruktiv zeigen, dass es möglich ist, eine Exzenterpresse mit einer Nennpresskraft von 2000 N in der verkleinerten Größenordnung unseres Projektes umzusetzen, ohne dass diese aufgrund der Skalierungsproblematik funktionsunfähig wird. Unser Entwurf erfüllt dabei alle Anforderungen, die an ihn von Seiten der TUC gestellt wurden, hinreichend bis sehr gut. Für die weitere Arbeit am Projekt „Exzenterpressendemonstrator“ konnten wir mit dieser Arbeit den Grundstein legen.
Herausforderungen und weitere Forschungsfragen:
Bei der Entwicklung des Demonstrators war besonders die Handhabung der omnipräsenten Skalierungsproblematik für uns eine große Herausforderung. Wir lösten sie durch gezielte Vereinfachung und Abwandlung sowie Neukonstruktion von nahezu allen Bauteilen in d er Maschine. In naher Zukunft ist geplant, dass unser Entwurf des Demonstrators an der TUC gefertigt wird. Anschließend wird er noch mit den notwendigen mechatronischen Elementen versehen werden, und dann wird er seinen Dienst als Lehrmittel an der Universität antreten können.
Leon Hübner (18)
Geo- und Raumwissenschaften (Standnummer 7)
Oberflächenbegrünung mit Moosen
Motivation / Ziel:
Extreme Hitze und hohe Schadstoffwerte sind besonders im Sommer ein Problem in Großstädten. Eine Fassadenbegrünung mit Pflanzen würde dagegenwirken und durch Transpiration die Temperatur senken, die Luftfeuchte erhöhen und Schadstoffe aufnehmen. Ich beschäftigte mich in meinem Projekt deshalb damit, wie man Beton-Module am besten mit Moosen begrünen könnte, da diese pflegeleicht sind und geringe Ansprüche haben. Der Einfluss von verschiedenen Strukturen, Himmelsrichtungen, Moosarten und Bewässerung wurde von mir untersucht, um festzustellen welche Kombination an einem großen Gebäude umsetzbar wäre.
Methode:
Um diesem Anspruch gerecht zu werden, musste ich eine Messmethode entwickeln, die mit wenig und leichter Ausrüstung auskommt. Die Ergebnisse müssen genau und reproduzierbar sein. Dafür benötige ich ein Handy, ein Stativ mit Wasserwaagen, ein Geodreieck und eine 8m lange Schnur. Mittels der gespannten Schnur und GPS-Daten kann die geografische Himmelsrichtung bestimmt werden. Das im Stativ eingespannte Handy muss mittels der Wasserwagen horizontal und mit dem Geodreieck zum geografischen Nordpol ausgerichtet werden. Die Magnetfelddaten werden mit der Physik-App „phyphox” aufgezeichnet.
Ergebnisse und wissenschaftlicher Beitrag:
Nach einem halben Jahr Beobachtung konnte ich feststellen, dass die Moose eine Bewässerung benötigen, da sie sonst austrocknen. Außerdem stellte ich fest, dass Strukturen mit Nischen besser geeignet sind, weil sie vor Sonne und Wind schützen. Ebenso ist die Ostseite am besten geeignet, während im Süden die Sonneneinstrahlung zu hoch ist. Bei der Anbringung zeigte sich, dass der Stärkekleber gut geeignet ist, die Moosextrakte aber absterben. Mein wissenschaftlicher Beitrag besteht jedoch vor allem darin, dass Langzeit-Experiment gestartet zu haben.
Herausforderungen und weitere Forschungsfragen:
Eine Herausforderung bestand darin, dass die Moose ohne Bewässerung austrockneten, woraufhin ich einen Tropfschlauch installierte und zusätzlich neue Moose anklebte. Eine weitere Schwierigkeit ist nun, dass die bewässerten Moose grün bleiben, aber scheinbar vom Wasser herunter gespült werden. Dem könnte man mit fixierenden Netzen entgegenwirken. Insgesamt ist noch offen, ob die Begrünung funktionieren wird. Das Experiment läuft aber erst einmal über die nächsten Jahre weiter und wird beobachtet…
Helena Krüger (18)
Physik (Standnummer 8)
Dynamische Längsstabilität von Federbällen
Motivation / Ziel:
Hohe Abfallmengen und Marktpreise von Naturfederbällen stellen im Badmintonsport ein Nachhaltigkeitsproblem dar. Aus diesem Grund suchen Schlüsselakteure dieser Branche aktiv nach Alternativen. Sogenannte Hybrid- und Carbonstegfederbälle sollen den Naturfederbällen, gegenüber des Nylonfederballs, hinsichtlich der Flugeigenschaften am nächsten kommen. Zentrales Ziel meines Projekts war es, anhand einer neu entwickelten Versuchsanordnung drei aerodynamische Größen der Längsstabilität von vier Federballmodellen experimentell zu erfassen und abzuwägen inwieweit sich die Modelle dem Naturfederball wirklich annähern, um einen kleinen Beitrag zur Lösung des Nachhaltigkeitsproblems zu leisten.
Methode:
Aufgrund der aerodynamischen Komplexität eines Federballs war eine experimentelle Abnahme der dynamischen Längsstabilität vorzuziehen. Untersucht wurden das Nick- und Reibungsmoment sowie das Nachschwingverhalten. Anhand einer eigens konzipierten Apparatur mit leichtgängiger Welle und befestigten Federballmodell erfasste ich im Windkanal alle Größen. Für eine Berechnung der Nickmomentkoeffizienten war eine Ermittlung der Bezugsflächen des Federballs in Abhängigkeit zum Drehwinkel durch paralleles Licht notwendig. Das Nickmoment wurde durch einen Kraftmesser, das Nachschwingverhalten anhand einer Hochgeschwindigkeitskamera und das Reibungsmoment durch die Messung der Winkelgeschwindigkeit erfasst.
Ergebnisse und wissenschaftlicher Beitrag:
Es ist mir eine Entwicklung einer neuen Versuchsanlage zur präzisen Messung drei unterschiedlicher aerodynamischer Größen und Differenzen vier verschiedener Federballmodelle gelungen. Zusätzlich erwies sich die Abnahme des Reibungsmoment als eine verbesserte Charakterisierungsmethode verschiedener Federbälle. Aufgrund von kaum vorhandenen Referenzwerten wurden erstmals die projizierten Bezugsflächen in Abhängigkeit zum Drehwinkel ermittelt. Naturfederbälle weisen noch immer die größte dynamische Längsstabilität auf. So bedarf es weiterhin an Optimierungen der neuen Modelle. Hinsichtlich des Nick- und Reibungsmoment kommt der Carbonstegfederball dem Idealball am nächsten.
Herausforderungen und weitere Forschungsfragen:
Abschließend lernte ich, dass Forschung viel Geduld verlangt. So war es eine Herausforderung das Nickmoment reibungsarm durch einen Faden in Abhängigkeit des Drehwinkels zu erfassen, um die Differenzen der Federballmodelle zu messen. Im Nachschwingexperiment musste ich mir eine Methode zur Freigabe der Versuchsanlage, ohne dass dieser die Strömung beeinflusst, überlegen, da ich bemerkte, dass sich der Luftstrom aufbauen muss. Es bedarf es zukünftig an Optimierungen der Messverfahren und der Untersuchung inwieweit die gemessenen Differenzen zu Unterschieden in der Spielpraxis führen.
Franziska Rauscher (18)
Physik (Standnummer 9)
Zerfallskanäle des Higgs-Boson-Teilchens
Motivation / Ziel:
Higgs-Bosonen sind Elementarteilchen, die nur sehr selten entstehen. Weil sie so selten sind, konnten sie noch nicht ausreichend untersucht werden. Daher sind sie für die aktuelle Forschung sehr interessant. Um Higgs-Bosonen aufzeichnen zu können, muss man wissen, wie man sie in einem Teilchen-Detektor sehen kann. Dafür muss man untersuchen, wie sie zerfallen und welche Spuren diese Zerfälle hinterlassen. Die Zerfallskanäle und wie sie detektiert werden können, habe ich untersucht.
Methode:
Ich habe mich zunächst mit der Theorie hinter dem Higgs-Boson und mich mit teilchen- und quantenphysikalischen Methoden, wie der sogenannten Störungstheorie, auseinandergesetzt. Mit einer störungstheoretischen Behandlung einer Exponentialfunktion konnte ich Terme herleiten, die bestimmte Zerfallsprozesse beschreiben.
Ergebnisse und wissenschaftlicher Beitrag:
Ich konnte auf Schul-Niveau einen Großteil aller Zerfallskanäle herleiten. Zudem habe ich den einzelnen Zerfällen Spuren im ATLAS Detektor zugeordnet und außerdem die Zerfallskanäle herausgearbeitet, die optimal detektiert werden und damit besonders interessant für die Erforschung des Higgs-Bosons sind.
Herausforderungen und weitere Forschungsfragen:
Teilchenphysik ist ein Thema, das normalerweise nicht im Unterricht behandelt wird. Die Methoden und der mathematische Hintergrund dieses Fachgebietes sind allerhöchstens Bestandteil des Curriculums in höheren Semestern des Physikstudiums und liegen daher weit außerhalb des Kenntnisbereiches einer Schülerin der Oberstufe. Daher stellen allein die Erarbeitung und Anwendung dieser Methoden eine besondere Herausforderung dar.
Alexander Benedix (19)
Mathematik/Informatik (Standnummer 10)
Simulation supraleitender Lager
Motivation / Ziel:
Ich habe erforscht, wie man supraleitende Lager numerisch stabil simulieren könnte. Weiterhin war das Ziel aus dieser Simulation eine Anwendung zu erstellen, mit der leicht Parameterstudien durchführbar wären – unter der Prämisse, dass die Ergebnisse der Simulation auch vertrauenswürdig sind.
Methode:
Ich habe aus der Literatur bekannte Beschreibungen als Modell genutzt, diese dann in der Simulationssoftware umgesetzt und später bekannte mathematische Vorgehen gewählt, um die numerische Stabilität zu behandeln.
Ergebnisse und wissenschaftlicher Beitrag:
Mein wissenschaftlicher Beitrag ist eine funktionierende numerisch stabile Anwendung, mit der einfache Parameterstudien an supraleitenden Lagern durchführbar sind.
Herausforderungen und weitere Forschungsfragen:
Die größte Herausforderung war die numerische Behandlung. Die dahinterstehenden Verfahren benötigen tiefgehendes Wissen, welches ich mir über viel Arbeit aneignen musste. Eine weitere Möglichkeit die Simulation zu verbessern wäre ggf. eine gezieltere Ausnutzung des Lösungsraums. Salopp gesagt: Könnte man die mathematischen Eigenschaften der Lösungen ausnutzen, um bessere mathematische Verfahren zu finden oder zu wählen?
Lena Hill (17)
Physik (Standnummer 11)
Physik der Klangerzeugung
Motivation / Ziel:
Ich habe mich mit den physikalischen Aspekten der Klangerzeugung von musikalischen Instrumenten beschäftig. Ich selbst spiele schon viele Jahre Geige, allein aber auch in Jugend-Sinfonieorchestern. Der Kammerton a, auf den zu Beginn jeder Probe und jeden Konzerts gestimmt wird, beträgt 440 Hz, hört sich aber auf jedem Instrument anders an. Ich habe mich gefragt, wie sich der Klang der unterschiedlichen Instrumente mit physikalischen Messmethoden quantifizieren lässt.
Methode:
Ich habe mich zunächst mit den theoretischen Grundlagen der Klangerzeugung von Instrumenten beschäftigt und dabei einen Fokus auf das Entstehen und Messen von Obertönen gelegt. Der praktische Teil der Untersuchungen bestand dann darin, mittels einer Klanganalyse die Verteilung und Ausprägung der einzelnen Obertöne auf den Instrumenten Geige und Querflöte im Vergleich zu einer Stimmgabel zu untersuchen. Des Weiteren habe ich analysiert, wie sich das Frequenzspektrum bei der Spieltechnik Vibrato verändert. Die Analyse erfolgte mittels Fourier-Analyse und der App phyphox.
Ergebnisse und wissenschaftlicher Beitrag:
Ich konnte deutliche Unterschiede in den Frequenzspektren der Stimmgabel, Querflöte und der Geige detektieren. Diese sind mitbestimmend für den individuellen Klang eines Instruments. Bei der Stimmgabel zeigt sich im Frequenzspektrum nur ein einzelner Peak bei 440 Hz. Die Geige zeigt weitaus mehr Obertöne als die Querflöte, was für den brillanteren Klang mit verantwortlich ist. Die Obertöne sind alle Vielfache des Grundtons. Die Spieltechnik Vibrato führt im Frequenzspektrum zu einer Verbreiterung der Peaks, zudem ändert sich beim Vibrato die Verteilung der Obertöne.
Herausforderungen und weitere Forschungsfragen:
Die Frequenzspektren wiesen eine gewisse Variabilität in Abhängigkeit von der Lautstärke und der Richtung, aus der der Klang aufgenommen wurde, auf. Zudem wird wahrscheinlich auch die Qualität des Aufnahmemikrofons die Frequenzspektren ein wenig beeinflussen. Daher habe ich versucht, diese Bedingungen für alle Aufnahmen konstant zu halten und repräsentative Aufnahmen für die Darstellung in meiner Arbeit ausgewählt. Ich würde gerne weiter untersuchen, inwieweit verschiedene Geigen (von sehr günstig bis sehr teuer), einen individuellen physikalisch messbaren Fingerprint haben.
Dan Vlad Himcinschi (18)
Physik (Standnummer 12)
DIY Foucaultsches Pendel
Motivation / Ziel:
Um die Erdrotation nachzuweisen habe ich ein dauerhaft schwingendes Foucaultsches Pendel gebaut und ein System entwickelt, welches mittels Sensorik Daten über die Drehbewegung des Pendels sammelt, auswertet und entscheidet, wann das Pendel angetrieben werden soll. Die Genialität und Einfachheit des Versuchs haben mich fasziniert, weshalb ich dem Wunsch der Schule, ein solches Pendel zu besitzen, nachgegangen bin und mir als Ziel gesetzt habe, diesen Versuch so informativ wie möglich zu gestalten und die Erdrotation allen leicht nachvollziehbar zugänglich zu machen.
Methode:
Um eine dauerhafte Schwingung des Pendels zu ermöglichen, muss dieses angetrieben werden. Dabei darf die Richtung der Schwingung nicht beeinflusst werden. Ich habe mich entschieden, den Antrieb über elektromagnetische Induktion umzusetzen, wobei eine unter der Ruhelage des Pendels befindliche kreisförmige Spule, welche mittels Mikroprozessors gesteuert wird und zum richtigen Zeitpunkt einen Magneten im Pendelkörper anzieht. Für die Datenerfassung nutze ich außerdem fünf halbkreisförmig angeordnete Hall-Sensoren, deren Datensätze ich analysiere und durch Regression den Winkel der Schwingungsgeraden zu einer Orientierungsgeraden berechne.
Ergebnisse und wissenschaftlicher Beitrag:
Mithilfe meines experimentellen Aufbaus und Softwaresystems zur Datenaufnahme und -auswertung konnte ich die theoretischen Werte für das aufgehangene Pendel, wie z.B. Periodendauer, Dauer einer vollen Drehung und Winkelgeschwindigkeit bestätigen. Ich habe eine Software entwickelt, welche den aktuellen Winkel der Schwingungsgeraden gegenüber einer Orientierungsgeraden mit nur geringen Abweichungen berechnet. Durch die von mir erstellten Informationsmittel (https://pendel.kepler-chemnitz.de) und die Ausgabe des Winkels kann das Pendel als Lehrmittel im Physikunterricht genutzt werden.
Herausforderungen und weitere Forschungsfragen:
Die erste Herausforderung bestand darin, Materialien für ein 15 Meter langes Pendel zu besorgen und dieses so aufzuhängen, dass die Aufhängung die Schwingungsrichtung des Pendels nicht beeinflusst. Beim Antrieb war es wichtig, die Spule genau unter der Ruhelage des Pendels zu platzieren, um den Dreh-Effekt nicht zu stören. Des Weiteren war es ein langer Weg des Experimentierens, bis ich ein geeignetes System zur Datenaufnahme entwickeln konnte. Eine mögliche Forschungsfrage wäre, zu prüfen, ob der Auswertealgorithmus für eine akkuratere Winkelberechnung weiterentwickelt werden kann.
Denis Goncharov (17)
Mathematik/Informatik (Standnummer 13)
Durchschnittsgeschwindigkeit eines Radfahrers
Motivation / Ziel:
Heutzutage gibt es viele Optionen eine Route zu planen – hierbei wird von dem Programm eine Durchschnittsgeschwindigkeit zusammen mit der benötigten Zeit angegeben. Als engagierter Rennradfahrer war ich überzeugt diese Angaben unter Einfluss meiner Erfahrungen besser treffen zu können. Somit war bzw. ist auch weiterhin mein Ziel, diese Fahrt so genau wie möglich zu modellieren, ohne dabei zu vielen Daten zu verlangen, um anschließend eine realitätsnahe Zeit-/Durchschnittsgeschwindigkeitsberechnung durchzuführen. Weiterhin soll das Programm benutzerfreundlich und intuitiv sein.
Methode:
Grundlage für die Berechnung stellt ein Unterteilen der Strecke in kleinstmögliche Abschnitte dar. Auf diesen wird eine konstante Geschwindigkeit angenommen, welche anhand einer eingegeben Durchschnittsleistung und weiterer Parameter ermittelt wird. Grundlage bildet hier ein Kräftegleichgewicht aus Luftwiderstand, Rollwiderstand, Hangabtriebskraft und dem entgegen die Kraft des Fahrers. Diese Abschnitte errechnen sich auf Grundlage einer gpx-Datei, welche Positionsangaben mit Länge, Breite und Höhe enthalten. Anschließend werden diverse Visualisierungen vorgenommen, um das Programm benutzerfreundlich zu gestalten.
Ergebnisse und wissenschaftlicher Beitrag:
Ein Vergleich mit eigenen Radfahrten Leistung hat ergeben, dass die Simulation ziemlich genau ist mit einer Toleranz von ca. +-1km/h. Selbstverständlich ist die Berechnung hierbei dann am besten, wenn die tatsächlichen Gegebenheiten mit den genutzten Daten übereinstimmen. Die praktische Anwendbarkeit ist vor Allem dort relevant, wo Optimierungsfragen auftreten. Das Programm kann genau berechnen, wie sich bspw. eine Verringerung des Fahrergewichts um 1kg auf die benötigte Zeit für einen Anstieg auswirkt, was gerade im engagierten Amateurbereich des Radsports sehr interessant ist.
Herausforderungen und weitere Forschungsfragen:
Wenn erstmal die groben Fehler im Quellcode behoben sind, kommen die ganz bösen Fehler, die, die man nicht auf den ersten Blick sieht, welche nur unter bestimmten Umständen auftreten. Die Wurzel dieser zu finden, gerade wenn ein solcher Fehler das ganze Programm einen Tag vor der Vorstellung auf den Kopf stellt, kostet Schlaf. Ich sehe stets die Möglichkeiten, das Programm zu verbessern. So wäre meine nächste Idee, die Trägheit vorheriger Segmente in die Berechnung mit einzubeziehen.
Lennart Jaretzki (19)
Mathematik/Informatik (Standnummer 14)
Geometrischer deep-Learning Ansatz zur Knotentheorie
Motivation / Ziel:
Ich habe erforscht, wie geometrische neuronale Netze auf Knoten theoretischen Daten arbeiten. Meine Forschungsfrage war, ob geometrische neuronale Netze besser als herkömmliche Methoden Knotenvarianten vorhersagen können.
Methode:
Ich habe den dual Graphen und geometrische neuronale Netze dafür verwendet.
Ergebnisse und wissenschaftlicher Beitrag:
Ich habe herausgefunden, dass geometrische neuronale Netze besser als herkömmliche Methoden auf Knotendaten arbeiten und höhere Generalisierungsfähigkeiten haben.
Herausforderungen und weitere Forschungsfragen:
Es war zunächst schwierig, eine Methode zu finden, um Knoten in Graphen umzuwandeln, damit geometrische neuronale Netze verwendet werden können. Eine weitere Forschungsfrage wäre, welche neuronale Netzarchitektur für die Vorhersage von Knoteneigenschaften, welche mit bisherigen Methoden nicht vorhergesagt werden konnten, geeignet wäre.
Max Riedel (18)
Mathematik/Informatik (Standnummer 15)
Qualitätsparameter von SingleCellExperimenten
Motivation / Ziel:
Ich habe mich mit der Analyse von Einzelzellsequenzierungen beschäftigt. Da diese Sequenzierungen zum Ermitteln der Gensequenz einzelner Zellen jedoch fehleranfällig und zeitaufwendig sind. Deshalb wollte ich eine Anwendung erstellen, welche diese Daten zusammenfasst und visualisiert, damit die Experimente leichter überprüft werden können.
Methode:
Mithilfe der Programmiersprache Python habe ich ein Programm geschrieben um mein Ziel zu erreichen. Das Programm besteht dabei aus zwei Teilen. Der erste ließt die Daten der Sequenzierer ein und der zweite visualisiert sie. Im zweiten Teil ist es dann möglich auf vier verschiedenen Seiten die Experimente anhand wählbarer Parameter zu Vergleichen. Zudem habe ich mithilfe des Programms Spezialfälle untersucht und erste Erwartungsbilder erschaffen.
Ergebnisse und wissenschaftlicher Beitrag:
Ich habe es geschafft ein funktionales Programm zu kreieren, welches die Anforderungen erfüllt und mit welchem man unter Zunahme der Erwartungsbilder zukünftige Experimente bewerten kann.
Herausforderungen und weitere Forschungsfragen:
Das Programm kann noch erweitert werden. Dabei können die Erwartungsbilder direkter in das Programm integriert werden oder etwa der Einsatz des Programms weiter automatisiert werden. So kann das Programm schlussendlich effektiver eingesetzt werden.
Ole Günther (17)
Biologie (Standnummer 16)
Nahrung und Parasitismus von Fischen
Motivation / Ziel:
Ich gehe seit vielen Jahren Angeln und habe dadurch bereits einige Kenntnisse über unsere heimischen Fischarten. Dies hat mir bei meiner Forschungsarbeit stark geholfen. Durch das verbinden meines Hobbys mit einer Forschungsarbeit ist mir das ausarbeiten dieser leichter gefallen. Das Ziel meines Projektes ist herauszufinden, einerseits wie viele Fische tatsächlich von Parasiten befallen werden und andererseits ob die aus Biologiebüchern bekannten Nahrungsketten und Ernährungsweisen der Fische wirklich korrekt sind.
Methode:
Um an Material zum Untersuchen zu gelangen, musste ich als Erstes Fische fangen. Dies erfolgte mit herkömmlicher Angelausrüstung. Die gefangenen Exemplare wurden schon am Wasser nach Parasiten abgesucht, welche in Ethanol zwischengelagert wurden, um sie später im Labor zu bestimmen. Die Fische wurden als Nahrungsmittel genutzt und deren Mägen seziert um die Mageninhalte genauer zu bestimmen. Einzelne Mageninhalte und die Parasiten wurden zum Bestimmen unter dem Binokular betrachtet.
Ergebnisse und wissenschaftlicher Beitrag:
Die meisten Fische wurden nicht von Parasiten befallen. Die häufigsten Parasiten waren Karpfenläuse. Die Mageninhalte konnten grobe bereits bestehende Kenntnisse der Ernährung der entsprechenden Fischarten bestätigen. So hatten die Friedfische fast ausschließlich Pflanzliches Material im Magen, während die Raubfische viele Insektenlarven und kleinere Fische gefressen hatten. Eine Besonderheit war die Erkenntnis, dass im Magen mehrerer Hechte Insektenlarven gefunden wurden, welche eigentlich nicht zu deren Nahrung gehören.
Herausforderungen und weitere Forschungsfragen:
Nach dem Erforschen der Nahrung stellen sich einige neue Fragen. Zum Beispiel, ob die Hechte die Insektenlarven bewusst oder unbewusst gefressen haben. Ebenso könnte der Hecht die Larve durch ihre Fischähnliche Fortbewegungsart für einen kleinen Fisch gehalten haben. Diese und mehr Fragen könnten nur durch eine zukünftige Erweiterung der Forschungsarbeit beantwortet werden.
Konrad Jannes Köhler (18)
Biologie (Standnummer 17)
Impfstoffe gegen Coronaviren
Motivation / Ziel:
Die Coronapandemie hat unser Leben stark beeinträchtigt. Die Impfstoffe gegen das aktuelle Coronavirus werden regelmäßig angepasst und neu verabreicht, da das Virus mutiert und neue Virusvarianten entstehen.
Ich habe versucht, die Vorbereitung für einen neuen Impfstoff zu schaffen, der nicht nur gegen das aktuelle Coronavirus SARS-CoV-2, sondern möglichst auch gegen viele Varianten und verwandte mögliche Zoonosen helfen soll. Das Ziel meiner Arbeit ist, Proteine zu designen, die besser an den germline-Antikörper binden als das Viren-Spike-Protein.
Methode:
Ich habe einen gut funktionierenden Antikörper recherchiert und seinen im menschlichen Körper vorliegenden Vorläufer-Antikörper über reverse VDJ-Rekombination ermittelt. Das Antigen dazu habe ich gemäß dem Ansatz des „germline targeting“ am Computer so verändert, dass es besser an den Vorläufer-Antikörper bindet. Für das computergestützte Proteindesign habe ich die Programme Foldit und das neue ProteinMPNN genutzt. Die Antikörper und die designten Antigene habe ich im Labor synthetisiert. Schließlich habe ich alle ausgetestet, die Bindung der Antigene an die Antikörper gemessen.
Ergebnisse und wissenschaftlicher Beitrag:
Ich habe dreizehn Antigene designt, synthetisiert und gemessen. Davon scheinen fünf vielversprechend und eines weist eine deutlich verbesserte germline-Bindung auf. Das Ziel meiner Arbeit ist also erreicht. Mit diesen Antigenen kann weitergearbeitet werden. Es kann versucht werden, sie für neue Impfstoffe gegen SARS-CoV2 und seine neu entstehenden Varianten einzusetzen. Außerdem habe ich die neue Software ProteinMPNN getestet: Sie funktioniert gut. Ihre Ergebnisse ähneln denen Foldits, das auf der bekannten Proteinfaltungssimulations-Software „RoseTTA“ beruht. Ferner habe ich Aufträge mit festgelegter Mutationsanzahl programmiert.
Herausforderungen und weitere Forschungsfragen:
Um das Risiko falscher Faltung zu minimieren, habe ich je nur wenige Mutationen in das Antigen eingebracht. ProteinMPNN hat Proteine mit zu großer Mutationsanzahl ermittelt. Zwei Proteine ließen sich nicht aufkonzentrieren, die Herstellung und Faltung gelang aber. Um mit den designten Proteinen einen Impfstoff zu erstellen, muss daran in der Wirkstoffentwicklung weitergearbeitet werden. Sie sollten neben der germline-Bindung auf andere Aspekten optimiert werden (Stabilität, Exposition des gewünschten Epitops, …). Es sind Versuche in vivo nötig, um ihre Wirkung zu bestätigen.
Florian Reddel (18)
Biologie (Standnummer 18)
Spinat zur Therapie von chronischen Wunden
Motivation / Ziel:
Die Therapie von chronischen Wunden ist eine globale Herausforderung, welche sich unter dem demographischen Wandel unserer Gesellschaft weiter exazerbiert. Demzufolge ist die Entwicklung innovativer Behandlungsmöglichkeiten von großer Bedeutung, weshalb sich die vorliegende Arbeit mit der Entwicklung einer Gewebeprothese aus Spinat zur Therapie von chronischen Wunden auseinandersetzt.
Methode:
Im Rahmen der vorliegenden Arbeit wurde innerhalb von zwei Jahren eine neue Methode (SpinClear-I-System) zur Dezellularisierung von pflanzlichen Geweben entwickelt, welche anschließend über dsDNA-Quantifikation, Licht- und Rasterelektronenmikroskop sowie einer programmierten Software analysiert wurde. Darüberhinaus wurde eine Wasserkapazitäts- analyse des Biomaterials sowie ein Systematic Review der Biokompatibilität erstellt.
Ergebnisse und wissenschaftlicher Beitrag:
Die Ergebnis- se der Experimente und Untersuchungen zeigten, dass die entwickelte SpinClear-Methode eine radikalere Dezellularisierung unter Integritätserhalt des Gewebes bei weniger Material- und Zeit- verbrauch gewährleistet. Es wurde eine vollständige Dezellularisierung in unter 30 Stunden ermöglicht, was einer Reduktion von 150 Stunden zu der konventionellen Perfusions-Methode dar- stellt, wobei der dsDNA-Content nochmals deutlich reduziert wurde, was die Möglichkeit einer sicheren medizinischen Applikation ermöglicht. Die entwickelte Dezellularisierungsmethode ist aktuell 2024 das radikalste, schnellste und einfachste Verfahren zur Dezellularisierung von pflanzlichen Geweben. Darüberhinaus gab es innerhalb der letzten zwei Jahre in der internationalen Wissenschafts-Community faszinierende Entwicklungen zur Anwendung von dezellularisierten spinach scaffolds in der regenerativen Biomedizin. Es ist absolut anzunehmen, dass die Möglichkeiten von dezellularisierten Biomaterialien weit nicht erschöpft sind.
Herausforderungen und weitere Forschungsfragen:
Die größte Herausforderung meiner Arbeit bestand darin, dass die Dezellularisierung von pflanzlichen Geweben vor zwei Jahren noch ein unbedeutendes Thema war; es gab wenig wissenschaftliche Arbeit, wenige Forschungsgruppen im internationalen Raum und viel Arbeit die erstmal geleistet werden musste.
Joel Gerlach (19)
Arbeitswelt (Standnummer 19)
Präzisierung von Berufsbezeichnungen mit KI
Motivation / Ziel:
Häufig begegnen Bewerber auf Online-Stellenportalen Stellenausschreibungen mit vagen Berufsbezeichnungen wie beispielsweise „Mitarbeiter Returns“, welche dementsprechend von ihnen häufig einfach ignoriert werden. Obwohl Arbeitgeber die Anforderungen und erforderlichen Qualifikationen kennen, fehlt es ihnen oft an der passenden Berufsbezeichnung. Mein Projekt zielte darauf ab, ein Large Language Model zu trainieren, das anhand von Stellenbeschreibungen den entsprechenden Beruf ermittelt. Somit wird es Arbeitgebern künftig leichter gemacht, ihre Stellenanzeigen mit genauen Berufsbezeichnungen zu versehen, um gezielt die passenden Bewerber anzusprechen.
Methode:
Ich begann mit einem BERT-Transformer-Encoder, den ich anfangs mit Standardparametern feinjustierte. Schnell machte sich allerdings Overfitting bemerkbar, welches durch eine zu hohe Lernrate im Gradientenverfahren verursacht wurde. Die Anpassung dieses Parameters führte im Folgenden zu deutlichen Verbesserungen gegenüber der anfänglichen konstanten Rate. Die kontinuierliche Optimierung dieses Aspekts erbrachte konsistent bessere Leistungen. Inspiriert durch diese Fortschritte, experimentierte ich mit der Ensemblierung der genauesten Modelle, was die Vorhersagegenauigkeit letztendlich noch einmal signifikant steigerte.
Ergebnisse und wissenschaftlicher Beitrag:
In meiner Auswertung nutzte ich Top-3 und Top-5 Genauigkeiten für die Vorhersagequalität der Modelle und betrachtete, ob die richtige Berufsbezeichnung unter den ersten drei bzw. fünf Vorhersagen lag. Das initial trainierte Modell erreichte nach drei Trainingsepochen eine Top-3 Genauigkeit von 97,5%. Modelle mit angepassten Lernraten verbesserten dies auf 97,68 Prozent bis 97,78 Prozent, während die Top-5 Genauigkeit bei über 99 Prozent lag. Durch Ensemblierung der drei präzisesten konnte ich die Top-5 Genauigkeit sogar auf 99,76 Prozent erhöhen.
Herausforderungen und weitere Forschungsfragen:
In meinem Projekt habe ich das sogenannte ISCO08-Klassifikations-System verwendet, das zwischen 436 verschiedenen Berufen unterscheidet. Mein Datensatz bestand demnach aus etwa 11.000 Stellenausschreibungen mit manuell zugeordneten ISCO-Codes. Das sogenannte ESCO-System ist eine Erweiterung des ISCO-Systems von der EU, das zwischen mehr als 3000 verschiedenen Berufen unterscheidet. Meine nächste Aufgabe wird es sein, mein Modell so weiter auszubauen, dass es ESCO-Codes verwendet, um bei der Klassifizierung noch genauer zu sein.
Lilli Heurkens (18)
Arbeitswelt (Standnummer 20)
ChatGPT im schulischen Kontext
Motivation / Ziel:
Ich habe das Nutzerverhalten der Schüler*innen und Lehrer*innen meiner Schule untersucht. Mein Ziel dabei war es herauszufinden, wie viele Schüler für was und warum ChatGPT nutzen. Insbesondere nach dem ersten Hype um ChatGPT wollte ich zumindest für meine Schule Klarheit schaffen, wie sich das Nutzerverhalten eigentlich tatsächlich gestaltet. Dabei wollte ich die Möglichkeiten und vor allem die Probleme ermitteln, die sich aus der Nutzung von ChatGPT in einem schulischen Kontext ergibt.
Methode:
Ich habe zwei aufeinander aufbauende Umfragen durchgeführt. Im Anschluss dessen habe ich auch die Nutzung von ChatGPT im Unterricht untersucht. Dabei habe ich Online-Umfragen genutzt, die von Schüler*innen und Lehrer*innen des Landesgymnasium Sankt Afra beantwortet wurden.
Ergebnisse und wissenschaftlicher Beitrag:
Ich konnte zeigen, dass bereits fast alle Schüler*innen ChatGPT kannten und mindestens die Hälfte der Befragten die Chat-KI auch nutzten. Besonders häufig wurde dabei die Recherche, also das gezielte Suchen nach Informationen als Verwendungszweck angegeben. Dabei haben gerade die Schüler*innen eine grundsätzlich positive Meinung von der Chat-KI. In der Untersuchung des Unterrichts konnte gezeigt werden, dass gerade bei der Recherche mit ChatGPT große Probleme entstehen und viele falsche Informationen, die in den Antworten enthalten sind, Verwirrung stiften.
Herausforderungen und weitere Forschungsfragen:
Natürlich habe ich nur wenig Menschen befragen können, hieraus leitet sich direkt ein Forschungsauftrag ab. Außerdem ist es eine weitere Herausforderung, auch Lehrer*innen zu befragen, um auch deren Nutzungsverhalten noch besser erfassen zu können. Außerdem ist besonders spannend, den Prozess des Erlernens des Umgangs mit ChatGPT weiter zu verfolgen und auch über Zeiträume von Jahren zu dokumentieren.
Lara-Marie Schulze (18)
Arbeitswelt (Standnummer 21)
Studienregister in REDCap
Motivation / Ziel:
Im Projekt habe ich in REDCap eine Datenbank aus Studien und Studienpatienten entwickelt. Diese soll die bisherige Speicherform dieser Daten in MS Excel ablösen. Ziel des Projektes ist es, Arbeitsabläufe der Studienkoordination sowie weiterer Bereiche zu optimieren und Informationen über die Studienlandschaft des KKH leichter zugänglich zu machen. So sollen personelle und zeitliche Ressourcen geschont und die Patientenrekrutierung im onkologischen Bereich verbessert werden.
Methode:
Grundlage des Studienregisters bildet REDCap, ein webbasiertes Datenerfassungstool. Es bietet die Möglichkeit, Fragebögen sowie Berichte zu gestalten. Weiterhin stellt REDCap ein System aus Nutzerrollen und Zugriffsgruppen zur Verfügung, die dem Datenschutz innerhalb des Projektes dienen. Für komplexe Auswertungen werden SQL-Abfragen an die REDCap-Datenbank auf der Wiki-Software Confluence dargestellt.
Ergebnisse und wissenschaftlicher Beitrag:
Das entstandene Studienregister verfügt über die benötigten Formulare, Berichte und SQL- Abfragen und wird daher bereits mit echten Daten gefüllt. Die Einarbeitung weiterer Mitarbeiter in das System wird durch das in diesem Projekt entstandene „Benutzerhandbuch“ erleichtert. Die künftige Wartung und dynamische Anpassung an neue Anforderungen wird durch die ebenfalls entstandenen „Adminhinweise“ ermöglicht.
Herausforderungen und weitere Forschungsfragen:
Neben der interdisziplinären Zusammenarbeit und Kommunikation bestand die größte Herausforderung dieses Projektes in der Erstellung von SQL-Abfragen. Diese sind aufgrund der Datenbankstruktur in REDCap komplex, wodurch die Fehlersuche erheblich erschwert wird. Zusätzlich mussten aufgrund der in Anspruch genommenen Rechenleistung einige SQL- Abfragen unterteilt werden.