[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"article_59152":3},{"tableOfContents":4,"markDownContent":5,"htmlContent":6,"metaTitle":7,"metaDescription":8,"wordCount":9,"readTime":10,"title":8,"nbDownloads":11,"excerpt":7,"lang":12,"url":13,"intro":14,"featured":4,"state":15,"author":16,"authorId":17,"datePublication":22,"dateCreation":23,"dateUpdate":24,"mainCategory":25,"categories":40,"metaDatas":68,"imageUrl":69,"imageThumbUrls":70,"id":78},false,"## AI Action Summit 2025: Schlüsselergebnisse\r\n\r\nAm Dienstag, den 11. Februar 2025, fand im **Station F** in Paris der **AI Action Summit** statt, eine wichtige Veranstaltung für das europäische Ökosystem der künstlichen Intelligenz. Bei **Dastra** hatten wir die Gelegenheit, bedeutende Ankündigungen, Debatten über KI-Ethischen und Diskussionen, die direkt für **Datenschutzbeauftragte (DPOs) und Compliance-Profis** relevant sind, zu verfolgen. Hier ein Rückblick für diejenigen, die nicht teilnehmen konnten.\r\n\r\nZu den Höhepunkten gehörten: eine **Meilenstein-Erklärung für verantwortungsvolle KI, die von 61 Ländern unterzeichnet wurde**, die Anwesenheit von **Emmanuel Macron und Sam Altman**, sowie eine aufschlussreiche Sitzung über **vertrauenswürdige KI**.\r\n\r\n## Ein Strategischer Moment für KI in Europa\r\n\r\n Der **AI Action Summit** findet zu einem entscheidenden Zeitpunkt statt: Der **AI Act**, die europäische Verordnung über künstliche Intelligenz, tritt in die Umsetzungsphase ein. Europa strebt danach, sich als **globaler Vorreiter für verantwortungsvolle KI** zu positionieren und betont **Transparenz, Sicherheit und kontrollierte Innovation**.\r\n\r\nDie Veranstaltung vereinte **Start-ups, Regulierungsbehörden und Technologieriesen** und hob die Bedeutung einer ausgewogenen Balance zwischen **Innovation und Regulierung** hervor.\r\n\r\n---\r\n\r\n## Eine Meilenstein-Erklärung für verantwortungsvolle KI\r\n\r\nEine der bedeutendsten Ankündigungen auf dem Gipfel war die Unterzeichnung einer Erklärung für **'offene, inklusive und ethische KI'**, die **61 Länder**, darunter **China, Indien und Frankreich**, zusammenbrachte. Das Ziel ist klar: **Verbesserung der globalen Koordination der KI-Governance**.\r\n\r\n---\r\n\r\n## Emmanuel Macron und Sam Altman in Station F\r\n\r\nDer Gipfel war auch von dem Besuch **Emmanuel Macrons** geprägt, der einen **Investitionsplan von 109 Milliarden Euro für KI** betonte und die Notwendigkeit hervorhob, dass Europa diese Technologie **meistern muss, während es seine Werte bewahrt**.\r\n\r\nUnterdessen war auch **Sam Altman, CEO von OpenAI**, anwesend und führte ein Gespräch mit **Clara Chappaz, Staatsministerin für Künstliche Intelligenz**.\r\n\r\n---\r\n\r\n## Vertrauenswürdige KI aufbauen: Die Herausforderung der Open Source\r\n\r\nEine der zentralen Sitzungen des Gipfels war **'Vertrauenswürdige KI aufbauen'**, die die Herausforderungen und Chancen im Zusammenhang mit Vertrauen in KI hervorhob. Hier eine kurze Zusammenfassung.\r\n\r\n## Open Source: Ein Hebel für Zugänglichkeit und Zuverlässigkeit\r\n\r\nOpen Source spielt eine entscheidende Rolle bei der Demokratisierung von KI. Heute basiert **70-90% der traditionellen Software auf Open-Source-Technologien**, und KI folgt dem gleichen Weg.\r\n\r\nUnternehmen wie **Hugging Face** in Europa bauen ihre Modelle auf einem **offenen und kollaborativen Ansatz** auf, der **Transparenz und Vertrauen** verstärkt. Wie ein Redner bemerkte:\r\n\r\n> *'Wenn man alles geschlossen hält, schafft man letztendlich ein weniger zuverlässiges Ökosystem.'*\r\n\r\nOpen Source ermöglicht **Schwachstellenerkennung, Prüfbarkeit und erhöhte Sicherheit**. Dennoch bleibt die Debatte: **Was genau ist offene KI?** Allein den Zugang über eine API zu gewähren, reicht nicht aus. Ein Modell sollte **downloadbar, lokal ausführbar und mit vollständiger Dokumentation sowie Trainingsschleifen ausgestattet sein**.\r\n\r\n## Transparenz und Dokumentation: Der Bedarf an Standards\r\n\r\nUm **vertrauenswürdige KI** aufzubauen, stellten Experten mehrere wichtige Empfehlungen auf:\r\n\r\n- **Nutzen Sie bestehende Rahmenwerke**, um die Auswirkungen von KI-Modellen zu bewerten.\r\n- **Teilen Sie Best Practices** und tragen Sie zu Open-Source-Projekten bei.\r\n- **Standardisieren Sie die Dokumentation**, um klare Erwartungen an die Transparenz der KI festzulegen.\r\n\r\nMit dem Inkrafttreten des **AI Act** könnte Europa eine Führungsrolle bei der Definition von **standardisierten Dokumentationsformaten** übernehmen und die **Transparenzanforderungen** verstärken.\r\n\r\n## Auf dem Weg zu einem inklusiveren und ethischeren KI-Ökosystem\r\n\r\nAbschließend hob die Sitzung die Bedeutung hervor, ein **vielfältiges KI-Ökosystem** zu fördern, und adressierte **algorithmische Verzerrungen und Fairness**. Transparenz ist nicht nur ein technisches Problem; sie beinhaltet auch **eine klare Kommunikation über die Fähigkeiten und Grenzen von KI-Modellen**.\r\n\r\nUnternehmen müssen eine Rolle spielen, indem sie **mit der Zivilgesellschaft zusammenarbeiten, regelmäßige Audits sicherstellen und aktiv an Open-Source-Initiativen teilnehmen**. Wie ein Redner es ausdrückte:\r\n\r\n> *'Die Regulierung von KI bedeutet auch, Innovation voranzutreiben.'*\r\n\r\n---\r\n\r\n## Schlüsselergebnisse für Datenschutzbeauftragte (DPOs)\r\n\r\nDer **AI Action Summit** brachte mehrere wichtige Punkte für **DPOs und Compliance-Professionals** zur Sprache:\r\n\r\n- **Regulierung von KI-Modellen**: Der **AI Act** wird **spezifische Verpflichtungen für Anbieter und Nutzer von Hochrisiko-KI** auferlegen.\r\n- **Transparenz und Dokumentation**: Unternehmen müssen rechtfertigen, wie ihre Modelle personenbezogene Daten verarbeiten und **Erklärbarkeit** gewährleisten.\r\n- **Rechte der Personen bei automatisierten Entscheidungen**: Es müssen effektive Beschwermechanismen vorhanden sein.\r\n- **Zertifizierung und Compliance**: Der Anstieg von **KI-Labels und Zertifizierungen in Europa**, wie **ISO 42001**, wird in den kommenden Jahren ein zentrales Thema sein.\r\n\r\n---\r\n\r\n## Fazit: Auf dem Weg zu einer regulierteren und verantwortungsbewussteren KI\r\n\r\nDieser Gipfel bestätigte eines: **KI befindet sich an einem wichtigen regulatorischen Wendepunkt**. Europa will ein **globaler Maßstab für verantwortungsvolle KI** sein, und Unternehmen müssen sich auf diese neuen Verpflichtungen **vorbereiten**.\r\n\r\nEs wurde ein Konsens erzielt, eine [**Koalition für nachhaltige KI**](https://www.sustainableaicoalition.org/wp-content/uploads/Coalition_for_Sustainable_AI_Presentation_ENG.pdf) zu bilden, die **61 Länder**, darunter **China und Indien**, verbindet und damit die **Rückkehr des Globalen Südens zu Diskursen über KI-Sicherheit und Nachhaltigkeit markiert**.\r\n\r\nBei **Dastra** verfolgen wir diese Entwicklungen genau, um Organisationen bei der **Einhaltung von KI-Vorgaben und GDPR-Anforderungen** zu unterstützen. Zögern Sie nicht, [kontaktieren Sie uns](https://www.dastra.eu/en/contacts), um diese strategischen Fragen zu besprechen oder herauszufinden, wie Dastra Ihnen beim Navigieren durch den **AI Act** helfen kann!","\u003Ch2 id=\"ai-action-summit-2025-schlusselergebnisse\">AI Action Summit 2025: Schlüsselergebnisse\u003C/h2>\r\n\u003Cp>Am Dienstag, den 11. Februar 2025, fand im \u003Cstrong>Station F\u003C/strong> in Paris der \u003Cstrong>AI Action Summit\u003C/strong> statt, eine wichtige Veranstaltung für das europäische Ökosystem der künstlichen Intelligenz. Bei \u003Cstrong>Dastra\u003C/strong> hatten wir die Gelegenheit, bedeutende Ankündigungen, Debatten über KI-Ethischen und Diskussionen, die direkt für \u003Cstrong>Datenschutzbeauftragte (DPOs) und Compliance-Profis\u003C/strong> relevant sind, zu verfolgen. Hier ein Rückblick für diejenigen, die nicht teilnehmen konnten.\u003C/p>\r\n\u003Cp>Zu den Höhepunkten gehörten: eine \u003Cstrong>Meilenstein-Erklärung für verantwortungsvolle KI, die von 61 Ländern unterzeichnet wurde\u003C/strong>, die Anwesenheit von \u003Cstrong>Emmanuel Macron und Sam Altman\u003C/strong>, sowie eine aufschlussreiche Sitzung über \u003Cstrong>vertrauenswürdige KI\u003C/strong>.\u003C/p>\r\n\u003Ch2 id=\"ein-strategischer-moment-fur-ki-in-europa\">Ein Strategischer Moment für KI in Europa\u003C/h2>\r\n\u003Cp>Der \u003Cstrong>AI Action Summit\u003C/strong> findet zu einem entscheidenden Zeitpunkt statt: Der \u003Cstrong>AI Act\u003C/strong>, die europäische Verordnung über künstliche Intelligenz, tritt in die Umsetzungsphase ein. Europa strebt danach, sich als \u003Cstrong>globaler Vorreiter für verantwortungsvolle KI\u003C/strong> zu positionieren und betont \u003Cstrong>Transparenz, Sicherheit und kontrollierte Innovation\u003C/strong>.\u003C/p>\r\n\u003Cp>Die Veranstaltung vereinte \u003Cstrong>Start-ups, Regulierungsbehörden und Technologieriesen\u003C/strong> und hob die Bedeutung einer ausgewogenen Balance zwischen \u003Cstrong>Innovation und Regulierung\u003C/strong> hervor.\u003C/p>\r\n\u003Chr />\r\n\u003Ch2 id=\"eine-meilenstein-erklarung-fur-verantwortungsvolle-ki\">Eine Meilenstein-Erklärung für verantwortungsvolle KI\u003C/h2>\r\n\u003Cp>Eine der bedeutendsten Ankündigungen auf dem Gipfel war die Unterzeichnung einer Erklärung für \u003Cstrong>'offene, inklusive und ethische KI'\u003C/strong>, die \u003Cstrong>61 Länder\u003C/strong>, darunter \u003Cstrong>China, Indien und Frankreich\u003C/strong>, zusammenbrachte. Das Ziel ist klar: \u003Cstrong>Verbesserung der globalen Koordination der KI-Governance\u003C/strong>.\u003C/p>\r\n\u003Chr />\r\n\u003Ch2 id=\"emmanuel-macron-und-sam-altman-in-station-f\">Emmanuel Macron und Sam Altman in Station F\u003C/h2>\r\n\u003Cp>Der Gipfel war auch von dem Besuch \u003Cstrong>Emmanuel Macrons\u003C/strong> geprägt, der einen \u003Cstrong>Investitionsplan von 109 Milliarden Euro für KI\u003C/strong> betonte und die Notwendigkeit hervorhob, dass Europa diese Technologie \u003Cstrong>meistern muss, während es seine Werte bewahrt\u003C/strong>.\u003C/p>\r\n\u003Cp>Unterdessen war auch \u003Cstrong>Sam Altman, CEO von OpenAI\u003C/strong>, anwesend und führte ein Gespräch mit \u003Cstrong>Clara Chappaz, Staatsministerin für Künstliche Intelligenz\u003C/strong>.\u003C/p>\r\n\u003Chr />\r\n\u003Ch2 id=\"vertrauenswurdige-ki-aufbauen-die-herausforderung-der-open-source\">Vertrauenswürdige KI aufbauen: Die Herausforderung der Open Source\u003C/h2>\r\n\u003Cp>Eine der zentralen Sitzungen des Gipfels war \u003Cstrong>'Vertrauenswürdige KI aufbauen'\u003C/strong>, die die Herausforderungen und Chancen im Zusammenhang mit Vertrauen in KI hervorhob. Hier eine kurze Zusammenfassung.\u003C/p>\r\n\u003Ch2 id=\"open-source-ein-hebel-fur-zuganglichkeit-und-zuverlassigkeit\">Open Source: Ein Hebel für Zugänglichkeit und Zuverlässigkeit\u003C/h2>\r\n\u003Cp>Open Source spielt eine entscheidende Rolle bei der Demokratisierung von KI. Heute basiert \u003Cstrong>70-90% der traditionellen Software auf Open-Source-Technologien\u003C/strong>, und KI folgt dem gleichen Weg.\u003C/p>\r\n\u003Cp>Unternehmen wie \u003Cstrong>Hugging Face\u003C/strong> in Europa bauen ihre Modelle auf einem \u003Cstrong>offenen und kollaborativen Ansatz\u003C/strong> auf, der \u003Cstrong>Transparenz und Vertrauen\u003C/strong> verstärkt. Wie ein Redner bemerkte:\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>\u003Cem>'Wenn man alles geschlossen hält, schafft man letztendlich ein weniger zuverlässiges Ökosystem.'\u003C/em>\u003C/p>\r\n\u003C/blockquote>\r\n\u003Cp>Open Source ermöglicht \u003Cstrong>Schwachstellenerkennung, Prüfbarkeit und erhöhte Sicherheit\u003C/strong>. Dennoch bleibt die Debatte: \u003Cstrong>Was genau ist offene KI?\u003C/strong> Allein den Zugang über eine API zu gewähren, reicht nicht aus. Ein Modell sollte \u003Cstrong>downloadbar, lokal ausführbar und mit vollständiger Dokumentation sowie Trainingsschleifen ausgestattet sein\u003C/strong>.\u003C/p>\r\n\u003Ch2 id=\"transparenz-und-dokumentation-der-bedarf-an-standards\">Transparenz und Dokumentation: Der Bedarf an Standards\u003C/h2>\r\n\u003Cp>Um \u003Cstrong>vertrauenswürdige KI\u003C/strong> aufzubauen, stellten Experten mehrere wichtige Empfehlungen auf:\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cstrong>Nutzen Sie bestehende Rahmenwerke\u003C/strong>, um die Auswirkungen von KI-Modellen zu bewerten.\u003C/li>\r\n\u003Cli>\u003Cstrong>Teilen Sie Best Practices\u003C/strong> und tragen Sie zu Open-Source-Projekten bei.\u003C/li>\r\n\u003Cli>\u003Cstrong>Standardisieren Sie die Dokumentation\u003C/strong>, um klare Erwartungen an die Transparenz der KI festzulegen.\u003C/li>\r\n\u003C/ul>\r\n\u003Cp>Mit dem Inkrafttreten des \u003Cstrong>AI Act\u003C/strong> könnte Europa eine Führungsrolle bei der Definition von \u003Cstrong>standardisierten Dokumentationsformaten\u003C/strong> übernehmen und die \u003Cstrong>Transparenzanforderungen\u003C/strong> verstärken.\u003C/p>\r\n\u003Ch2 id=\"auf-dem-weg-zu-einem-inklusiveren-und-ethischeren-ki-okosystem\">Auf dem Weg zu einem inklusiveren und ethischeren KI-Ökosystem\u003C/h2>\r\n\u003Cp>Abschließend hob die Sitzung die Bedeutung hervor, ein \u003Cstrong>vielfältiges KI-Ökosystem\u003C/strong> zu fördern, und adressierte \u003Cstrong>algorithmische Verzerrungen und Fairness\u003C/strong>. Transparenz ist nicht nur ein technisches Problem; sie beinhaltet auch \u003Cstrong>eine klare Kommunikation über die Fähigkeiten und Grenzen von KI-Modellen\u003C/strong>.\u003C/p>\r\n\u003Cp>Unternehmen müssen eine Rolle spielen, indem sie \u003Cstrong>mit der Zivilgesellschaft zusammenarbeiten, regelmäßige Audits sicherstellen und aktiv an Open-Source-Initiativen teilnehmen\u003C/strong>. Wie ein Redner es ausdrückte:\u003C/p>\r\n\u003Cblockquote>\r\n\u003Cp>\u003Cem>'Die Regulierung von KI bedeutet auch, Innovation voranzutreiben.'\u003C/em>\u003C/p>\r\n\u003C/blockquote>\r\n\u003Chr />\r\n\u003Ch2 id=\"schlusselergebnisse-fur-datenschutzbeauftragte-dpos\">Schlüsselergebnisse für Datenschutzbeauftragte (DPOs)\u003C/h2>\r\n\u003Cp>Der \u003Cstrong>AI Action Summit\u003C/strong> brachte mehrere wichtige Punkte für \u003Cstrong>DPOs und Compliance-Professionals\u003C/strong> zur Sprache:\u003C/p>\r\n\u003Cul>\r\n\u003Cli>\u003Cstrong>Regulierung von KI-Modellen\u003C/strong>: Der \u003Cstrong>AI Act\u003C/strong> wird \u003Cstrong>spezifische Verpflichtungen für Anbieter und Nutzer von Hochrisiko-KI\u003C/strong> auferlegen.\u003C/li>\r\n\u003Cli>\u003Cstrong>Transparenz und Dokumentation\u003C/strong>: Unternehmen müssen rechtfertigen, wie ihre Modelle personenbezogene Daten verarbeiten und \u003Cstrong>Erklärbarkeit\u003C/strong> gewährleisten.\u003C/li>\r\n\u003Cli>\u003Cstrong>Rechte der Personen bei automatisierten Entscheidungen\u003C/strong>: Es müssen effektive Beschwermechanismen vorhanden sein.\u003C/li>\r\n\u003Cli>\u003Cstrong>Zertifizierung und Compliance\u003C/strong>: Der Anstieg von \u003Cstrong>KI-Labels und Zertifizierungen in Europa\u003C/strong>, wie \u003Cstrong>ISO 42001\u003C/strong>, wird in den kommenden Jahren ein zentrales Thema sein.\u003C/li>\r\n\u003C/ul>\r\n\u003Chr />\r\n\u003Ch2 id=\"fazit-auf-dem-weg-zu-einer-regulierteren-und-verantwortungsbewussteren-ki\">Fazit: Auf dem Weg zu einer regulierteren und verantwortungsbewussteren KI\u003C/h2>\r\n\u003Cp>Dieser Gipfel bestätigte eines: \u003Cstrong>KI befindet sich an einem wichtigen regulatorischen Wendepunkt\u003C/strong>. Europa will ein \u003Cstrong>globaler Maßstab für verantwortungsvolle KI\u003C/strong> sein, und Unternehmen müssen sich auf diese neuen Verpflichtungen \u003Cstrong>vorbereiten\u003C/strong>.\u003C/p>\r\n\u003Cp>Es wurde ein Konsens erzielt, eine \u003Ca href=\"https://www.sustainableaicoalition.org/wp-content/uploads/Coalition_for_Sustainable_AI_Presentation_ENG.pdf\" rel=\"nofollow\">\u003Cstrong>Koalition für nachhaltige KI\u003C/strong>\u003C/a> zu bilden, die \u003Cstrong>61 Länder\u003C/strong>, darunter \u003Cstrong>China und Indien\u003C/strong>, verbindet und damit die \u003Cstrong>Rückkehr des Globalen Südens zu Diskursen über KI-Sicherheit und Nachhaltigkeit markiert\u003C/strong>.\u003C/p>\r\n\u003Cp>Bei \u003Cstrong>Dastra\u003C/strong> verfolgen wir diese Entwicklungen genau, um Organisationen bei der \u003Cstrong>Einhaltung von KI-Vorgaben und GDPR-Anforderungen\u003C/strong> zu unterstützen. Zögern Sie nicht, \u003Ca href=\"https://www.dastra.eu/en/contacts\">kontaktieren Sie uns\u003C/a>, um diese strategischen Fragen zu besprechen oder herauszufinden, wie Dastra Ihnen beim Navigieren durch den \u003Cstrong>AI Act\u003C/strong> helfen kann!\u003C/p>\r\n","KI-Aktionsgipfel 2025: Wichtige Erkenntnisse","AI Action Summit 2025: Wichtige Erkenntnisse",793,4,0,"de","ai-action-summit-2025-wichtige-erkenntnisse","Dienstag, 11. Februar 2025, beherbergte die **Station F** in Paris den **AI Action Summit**, eine Schlüsselveranstaltung für das europäische Ökosystem der künstlichen Intelligenz. Bei **Dastra** hatten wir die Gelegenheit, wichtige Ankündigungen, Debatten über KI-Ethische Fragen und Diskussionen, die direkt für **Datenschutzbeauftragte (DPOs) und Compliance-Profis** relevant sind, zu verfolgen. Hier ist eine Zusammenfassung für diejenigen, die nicht teilnehmen konnten.\r\n\r\nZu den Höhepunkten zählen: eine wegweisende Erklärung für verantwortungsvolle KI, die von 61 Ländern unterzeichnet wurde, die Anwesenheit von Emmanuel Macron und Sam Altman sowie eine aufschlussreiche Sitzung über den Aufbau vertrauenswürdiger KI.","Published",{"id":17,"displayName":18,"avatarUrl":19,"bio":20,"blogUrl":20,"color":20,"userId":17,"creationDate":21},38,"Paul-Emmanuel Bidault","https://static.dastra.eu/tenant-27/avatar/38/paul-emmanuel-bidault-150.jpg",null,"2019-12-03T19:09:28","2025-02-14T09:00:00","2025-04-30T08:25:34.0516157","2026-03-10T10:32:20.7204334",{"id":26,"name":27,"description":28,"url":29,"color":30,"parentId":20,"count":20,"imageUrl":20,"parent":20,"order":11,"translations":31},2,"Blog","A list of curated articles provided by the community","article","#28449a",[32,35,38],{"lang":33,"name":27,"description":34},"fr","Une liste d'articles rédigés par la communauté",{"lang":36,"name":27,"description":37},"es","Una lista de artículos escritos por la comunidad",{"lang":12,"name":27,"description":39},"Eine Liste von Artikeln, die von der Community verfasst wurden",[41,46],{"id":26,"name":27,"description":28,"url":29,"color":30,"parentId":20,"count":20,"imageUrl":20,"parent":20,"order":11,"translations":42},[43,44,45],{"lang":33,"name":27,"description":34},{"lang":36,"name":27,"description":37},{"lang":12,"name":27,"description":39},{"id":47,"name":48,"description":49,"url":50,"color":51,"parentId":26,"count":20,"imageUrl":20,"parent":52,"order":57,"translations":58},20,"Inside Dastra","Go behind the scenes at Dastra: company news, culture, events, team highlights, and the people driving our GDPR solution.","dastra-life","#e3cf68",{"id":26,"name":27,"description":28,"url":29,"color":30,"parentId":20,"count":20,"imageUrl":20,"parent":20,"order":11,"translations":53},[54,55,56],{"lang":33,"name":27,"description":34},{"lang":36,"name":27,"description":37},{"lang":12,"name":27,"description":39},3,[59,62,65],{"lang":33,"name":60,"description":61},"Vie de Dastra","Plongez dans les coulisses de Dastra : actualités internes, culture d’entreprise, événements, équipes et engagements. Découvrez qui se cache derrière notre solution RGPD.",{"lang":12,"name":63,"description":64},"Innerhalb von Dastra","Eintauchen in das Unternehmen",{"lang":36,"name":66,"description":67},"Dentro de Dastra","Sumérjase en la empresa",[],"https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-original.webp",[71,72,73,74,75,76,77],"https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-1000.webp","https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300.webp","https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-1500.webp","https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-800.webp","https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-600.webp","https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-300.webp","https://static.dastra.eu/content/17e0eb37-86c0-4254-988c-8bfe466afd36/20250211091932-300-100.webp",59152]