📢 AI Act – zakazane praktyki po 📅 02.02.2025 📅 02.02.2025 r. weszły w życie dwa pierwsze rozdziały AI Act, które dotyczą zasad ogólnych AI i zakazanych praktyk. 🚫 Jakie są zakazane praktyki z udziałem AI? ➡️ Manipulacje skutkujące zmianą zachowania osoby; ➡️ Wykorzystywanie słabości osoby fizycznej w celu nakłaniania do zmiany zachowań; ➡️ Scoring społeczny prowadzący do dyskryminacji osób fizycznych lub grup osób; ➡️ Ocena ryzyka popełnienia przestępstwa na podstawie profilowania; ➡️ Nieukierunkowane pozyskiwanie wizerunku osób fizycznych; ➡️ Wykorzystywanie systemu AI do wyciągania wniosków z emocji osoby w celach innych niż medyczne lub bezpieczeństwa; ➡️ Wprowadzanie systemu kategoryzacji osób fizycznych ze względu na ich dane biometryczne; ➡️ Wykorzystywanie systemów zdalnej identyfikacji biometrycznej w celach innych niż poszukiwanie osób zaginionych, zapobieżenie przestępstwu, udaremnienie bezpośredniego zagrożenia życia, lokalizowania podejrzanego w postępowaniu przygotowawczym, potwierdzenia tożsamości danej osoby. Czego nie dotyczy zakaz? Nie dotyczy stosowania systemów identyfikacji biometrycznej w celach wykrywania i ścigania przestępstw czy wykrywania emocji w celach medycznych lub bezpieczeństwa, przy czym takie stosowanie: ➡️ Może nastąpić, gdy organ ocenił skutki stosowania takiego systemu dla praw człowieka; ➡️ Może nastąpić jedynie po wydaniu zezwolenia przez organ wymiaru sprawiedliwości lub organ administracji; ➡️ Musi być zgłoszone organowi nadzoru rynku i organowi ochrony danych osobowych; Co należy zrobić w związku z wejściem w życie tej części AI Act? ➡️ Zweryfikować, czy stosowane systemy AI nie są wykorzystywane do zakazanych praktyk. #AIAct #AI #sztucznainteligencja #zakazanepraktyki #biometria
Informacje
Lawsome is a boutique Law Firm with 10 years of experience, which specializes in particular in: - investment processes for VC & PE funds, transactions (M&A), and transformation processes; - intellectual property rights, including copyright concerning the transfer of technologies, as well as industrial property rights. In addition to an IP audit conducted as part of due diligence for the needs of investment processes, our Firm provides on-going support to start-ups and businesses at later stages of development, in the field of intellectual property management; - comprehensive legal services including corporate law advisory for investment funds, medium entities and start-ups dealing with new technologies and SaaS sector in particular domestic subsidiaries belonging to international capital groups; - protection of personal data (RODO), including the development and implementation of procedures and documents related to personal data protection, carrying out audits concerning personal data protection and representing clients before the Inspector General for the Protection of Personal Data. Our Team, composed of 13 lawyers provides comprehensive services and support business projects of our Clients - from the idea to its full implementation - driven by our experience, innovative solutions full commitment to cooperation. Our Law Firm cooperates on an on-going basis with a patent attorney’s office, tax advisors. Since 2013, we are a member of Business Centre Club (BCC), with more than 2500 members, and provide legal advisory services to BCC members.
- Witryna
-
http://www.lawsome.pl/
Link zewnętrzny organizacji Lawsome
- Branża
- Usługi prawne
- Wielkość firmy
- 11–50 pracowników
- Siedziba główna
- Warsaw
- Rodzaj
- Spółka cywilna
- Data założenia
- 2011
- Specjalizacje
- Transactions, Venture Capital, Corporate, M&A, Privacy and Data Protection (RODO), Intellectual Property (IP & TMT), The Internet and media (IT), E-commerce, Advertising and promotion law i Real estate
Lokalizacje
-
Główna
ul. Senatorska 2
00-075 Warsaw, PL
Pracownicy Lawsome
-
Inga Kulesza
Managing Partner | Attorney at Law @ Lawsome | Corporate Law
-
Wendy Pekelharing-Lettenga
Stress & burn-out coach en Persoonlijk Leiderschap trainer van juridische professionals
-
Katarzyna Adamiak
Partner w Lawsome
-
Paulina Ostrowska
Adwokat | RODO/GDPR | Cybersecurity
Aktualizacje
-
📣 Marketing wg PKE – co się zmieniło? 📅 Ustawa z dnia 12.07.2024 r.– Prawo komunikacji elektronicznej (🔗 https://lnkd.in/dQByPwxb) weszła w życie 10.11.2024 r. 📜 PKE uchyla poprzednio obowiązujące w tym zakresie – Prawo telekomunikacyjne i art. 10 🔗ustawy o świadczeniu usług drogą elektroniczną (https://lnkd.in/dB2R2Wbm). Jakie są nowe zasady wyrażania zgód? 🚫 Zakazany jest marketing bezpośredni bez zgody abonenta lub użytkownika końcowego, na jego koszt; ➡️ Nowe przepisy PKE stosuje się do osób fizycznych (konsumentów) i osób prawnych/przedsiębiorców (B2B); ➡️ Niedozwolone jest wykorzystywanie do przesyłania informacji handlowej urządzeń końcowych i automatycznych systemów wywołujących (np. telefony, SMS/MMS, email); ➡️ Zgoda marketingowa powinna być wyrażona w sposób świadomy, dobrowolny, bezpośredni i powinna spełniać wymagania RODO. Jak może być wyrażona zgoda? 📧 Poprzez podanie adresu elektronicznego; ✅ Poprzez zaznaczenie checkbox’a na stronie internetowej. Jakie kary? Za nieprzestrzeganie przepisów PKE Prezes UKE może nałożyć karę w wysokości: ➡️ do 3% przychodu przedsiębiorstwa w poprzednim roku kalendarzowym albo ➡️ do 1 mln zł, przy czym zastosowanie ma kwota wyższa. ❗ Praktyka polegająca na wysyłaniu spamu może zostać uznana przez Prezesa UOKIK za praktykę naruszającą zbiorowe interesy konsumentów i podlegać sankcjom na podstawie 🔗ustawy o ochronie konkurencji i konsumentów (https://lnkd.in/dm7Nxwti), tj.: ➡️ karze pieniężnej do 10% obrotu przedsiębiorstwa w poprzednim roku obrotowym; ➡️ dodatkowym środkom nadzorczym (nakaz publikacji decyzji, zmiana zasad współpracy z pośrednikami, zaniechanie stosowania praktyki); ➡️ karze pieniężnej do 2 mln zł dla członka zarządu przedsiębiorstwa. Co należy zrobić w związku z wejściem w życie PKE? ➡️ Zweryfikować, czy dotychczas uzyskane zgody marketingowe spełniają wymagania PKE pod względem treści i sposobu ich zbierania; ➡️ Zaktualizować odniesienia prawne; ➡️ Skontrolować proces zarządzania zgodami; ➡️ Dokonać analizy portfolio świadczonych usług, pod kątem tego, czy podlegają PKE.
-
-
📣 GPSR – czy zakupy będą bezpieczniejsze? 📅13.12.2024 r. w całej UE i Irlandii Północnej zaczęło obowiązywać rozporządzenie z dnia 10.05.2023 r. w sprawie ogólnego bezpieczeństwa produktów (🔗https://lnkd.in/dZvgW5gA), które zastąpiło dyrektywę o odpowiedzialności za produkt niebezpieczny (PLD) i dyrektywę o ogólnym bezpieczeństwie produktów (GPSD). GPSR wprowadza wymagania dot. projektowania, oznakowania oraz monitorowania produktów, zwłaszcza w łańcuchu dostaw. Czego dotyczy GPSR? ➡️ Produktów: przedmiotów przeznaczonych dla konsumentów dostarczanych za wynagrodzeniem lub bez, w tym w ramach świadczenia usług konsumentom; ➡️ Produktów niebezpiecznych: niespełniających wymogów bezpieczeństwa. GPSR nie dotyczy m. in.: 💊 Produktów leczniczych; 🍲 Żywności i napojów, karm dla zwierząt; 🌿 Żywych roślin i zwierząt, środków ochrony roślin; 🖼️ Antyków; ✈️ Statków powietrznych; 🔧 Produktów wymagających naprawy lub odnowienia przed użyciem, posiadających wyraźne oznaczenie. Kogo dotyczy GPSR? Głównie producentów, importerów, dystrybutorów, sprzedających produkty przez Internet lub prowadzących działalność handlową w inny sposób na odległość (dostawców platform handlowych). Jakie główne obowiązki przewiduje GPSR? 👉 Obowiązek poprawnego oznaczania produktów (nazwa, znak towarowy, informacje o producencie/importerze, instrukcje itp.); 👉 Obowiązek zapewnienia bezpieczeństwa produktów; 👉 Obowiązek rejestracji w Safety Business Gateway lub Safety Gate (dla dostawców platform handlowych) i informowania za jego pośrednictwem organów nadzoru rynku o produktach niebezpiecznych; 👉 Obowiązek zapewnienia konsumentom co najmniej prawa do wymiany, naprawy lub zwrotu ceny za produkt niebezpieczny; 👉 W razie stwierdzenia, że produkt jest niebezpieczny: obowiązek poinformowania konsumentów i organu nadzoru rynku, wycofania produktu niebezpiecznego z obrotu albo odzyskania go od konsumentów. Jak przygotować się na GPSR? 👉 Przeprowadzić audyt produktów (w zakresie ich bezpieczeństwa); 👉 Zaktualizować informacje o produktach on-line (dane identyfikujące producenta, informacje o bezpieczeństwie itp.); 👉 Zweryfikować dostawców (czy spełniają wymogi GPSR); 👉 Przeszkolić personel (w zakresie nowych wymogów GPSR). ⚖️ Jakie sankcje nakłada GPSR? GPSR odsyła w tym zakresie do prawa krajowego. W polskim projekcie ustawy o ogólnym bezpieczeństwie produktów (obecnie na etapie konsultacji w Komitecie do Spraw Europejskich) zaproponowano kary pieniężne w wysokości: ➡️Do 1 mln zł dla producentów i importerów, a dla dystrybutorów do 500 tys. zł za wprowadzenie niezgodnych produktów z GPSR; ➡️Do 100 tys. zł dla dystrybutorów i producentów za błędne oznakowanie produktu; ➡️Do 1 mln zł dla dostawców platform handlowych za naruszenie obowiązków informacyjnych i rejestracji w Safety Gate.
-
-
Diabeł tkwi w szczegółach – o tym, dlaczego warto czytać „instrukcje” Narzędzia oparte na sztucznej inteligencji (AI) wspierają usprawniają i automatyzują standardowe procesy biznesowe, a nasze hobby przenoszą na inny poziom. Czy jednak korzystając z takich narzędzi wiemy, jakie mamy prawa? Niewielu z nas czyta „instrukcje” (T&C, regulaminy). Intuicyjnie przyjmujemy, że korzystając z narzędzi AI jesteśmy bezpieczni – to założenie jest jednak nieprawdziwe. Narzędzia AI muszą „się uczyć”, bo tylko w ten sposób ich algorytmy zwiększają swoją efektywność. Wszelkie dane wejściowe (inputy), jak i wyjściowe (outputy), są cenne dla operatorów tych systemów - to wyklucza poufność i ochronę. Treści generowane przy pomocy narzędzi AI nie są co do zasady chronione prawem autorskim (takiej ochronie podlegają jedynie elementy twórcze, stworzone przez człowieka). Do tego dochodzi jeszcze powszechna praktyka wyłączania w maksymalnym stopniu odpowiedzialności przez dostawców takich narzędzi – i wtedy już naprawdę „Houston, mamy problem”. Midjourney wymaga od użytkownika udzielenia nieograniczonej darmowej licencji do korzystania z inputów i outputów. Jeśli użytkownik nie zrobi innego zastrzeżenia, wszelkie outputy są dostępne dla innych użytkowników. Tworząc muzykę przy pomocy SUNO czy UDIO, to użytkownik ponosi odpowiedzialność, jeśli treść inputu lub outputu narusza prawa własności intelektualnej innych osób – wszelka odpowiedzialność SUNO i UDIO jest z tego tytułu wyłączona. ChatGPT umożliwia wyłączenie możliwości użycia konwersacji do dalszego trenowania modeli językowych wyłącznie użytkownikom płatnej wersji oraz użytkownikom biznesowym. Nie daje również żadnych gwarancji co do poprawności wygenerowanych tekstów oraz zgodności z prawem (w tym autorskim). Jako użytkownicy sami ponosimy odpowiedzialność za to, co wprowadzamy i otrzymujemy w ramach narzędzi AI. Akceptując regulamin, zazwyczaj bez jego czytania, najczęściej zwalniamy dostawców z wszelkiej odpowiedzialności nie tylko za sposób korzystania z „naszych” treści, ale także upoważniamy do ich szerokiego używania. A w przypadku sporu okaże się, że dostawca dostarczył jedynie narzędzie, a za resztę po prostu nie odpowiada, albo odpowiada do symbolicznej kwoty 100 USD. Czy to ważne? Tak – bo już teraz nasi klienci pytają, czy to, że ich zaprojektowany przy pomocy narzędzi AI wzór nadruku jest chroniony i czy ten łudząco podobny konkurencyjny projekt to już plagiat, czy tylko efekt uczenia się „algorytmu” w oparciu o ich output. Tak – bo coraz częściej musimy naszym klientom wyjaśniać, że jeśli na ich zlecenie powstanie piosenka i twórca wykorzysta przy tym SUNO czy UDIO – to w przyszłości to do nich uprawniony zwróci się z roszczeniami dot. naruszenia praw autorskich do muzyki i roszczenie regresowe wobec dostawców narzędzi może nie być skuteczne. Czytajmy instrukcje - świadomość ograniczeń narzędzi AI i rozszerzonej odpowiedzialności użytkownika – to jedyna recepta na bezpieczną przygodę z AI.
-
-
W najnowszym numerze magazynu Przedsiębiorcy@EU, wydawanym przez Klub Integracji Europejskiej, ukazał się artykuł przygotowany przez naszą Kancelarię Lawsome pt. „AI – nowe możliwości, aktualne wyzwania”. W publikacji podjęliśmy próbę analizy aktualnego stanu prawnego dot. AI – AI Act i projektu Dyrektywy o odpowiedzialności cywilnej za sztuczną inteligencję i potencjalnych ryzyk prawnych wynikających z dynamicznego rozwoju tej technologii. Jako entuzjaści nowych technologii wiemy, że korzystanie z AI/GAI to jednocześnie wyzwanie, przywilej, ale też odpowiedzialność za kształtowanie nowych standardów. Dlatego przyjrzeliśmy się dyskusji zwolenników AI/GAI upatrujących w niej uniwersalnego remedium na zwiększenie efektywności, i jej przeciwników obawiających się nieznanego – wskazując w artykule przykłady zastosowania AI w biznesie i życiu prywatnym, próbując jednocześnie skwantyfikować ryzyka prawne z tym związane. Zachęcamy do lektury, a w przypadku chęci uzyskania wsparcia prawnego w zakresie nowych technologii/AI zapraszamy do kontaktu. Jesteśmy Kancelarią z ponad 13-letnim doświadczeniem w branży nowych technologii, prawa własności intelektualnej i RODO. Doradzamy dostawcom rozwiązań technologicznych (w tym AI Tool), startup-om oferującym produkty i usługi oparte o AI, platformom e-commerce. Z powodzeniem łączymy doradztwo prawne z biznesowym podejściem. Na wszelkie pytania odpowie Katarzyna Adamiak (k.adamiak@lawsome.pl), liderka działu AI| RODO w Lawsome . #KlubIntegracjiEuropekskiej #Przedsiebiorcy@EU #AIAct #DyrektywaodpowiedzialnoscAI #AI #AIryzyka #Sztucznainteligencja #PrawoAI #Nowetechnologie #Lawsome
-
-
🎆 Dzisiaj (01.08.2024) wchodzi w życie #AI Act - pierwsza kompleksowa regulacja dotycząca sztucznej inteligencji! 📢 🤖 AI Act to kamień milowy w regulacji AI, który nie tylko promuje innowacje, ale także wprowadza mechanizmy kontrolne, aby technologie wykorzystujące AI były używane w sposób bezpieczny, etyczny i zorientowany na człowieka. 🔔 Oto, co musisz wiedzieć o nadchodzących zmianach: AI Act będzie wchodzić w życie etapami: 📅 🗓 02.02.2025 r. – rozpocznie się obowiązywanie przepisów dotyczących zakazanych praktyk w zakresie AI (art. 5); 🗓 02.08.2025 r. – zaczną obowiązywać regulacje dotyczące: organów notyfikujących i jednostek notyfikowanych (rozdz. III, sek. 4); modeli AI ogólnego przeznaczenia (rozdz. V), przepisy dotyczące zarządzania (rozdz. VII) i sankcje za naruszenia rozporządzenia (rozdz. XII, z wyłączeniem postanowień dot. kar pieniężnych dla dostawców modeli AI ogólnego przeznaczenia – art. 101), a także dot. poufności – art. 78; 🗓 02.08.2026 r. – w życie wejdą pozostałe przepisy rozporządzenia (z wyjątkiem jednej z kategorii klasyfikacji systemów AI wysokiego ryzyka – art. 6 ust.1), w tym wymogi przejrzystości; 🗓 02.08.2027 r. – rozpocznie się obowiązywanie postanowień dot. systemów wysokiego ryzyka związanych z AI (art. 6 ust.1 i odpowiadające mu obowiązki). Biorąc pod uwagę ten harmonogram, warto już teraz zaplanować rozwój, wdrożenie i zarządzanie systemami AI tak, aby być gotowym na nadchodzące zmiany i zapewnić zgodność z AI Act. 🔗 Link do pełnego tekstu AI Act: https://lnkd.in/dUbqAdKa #AIAct #AI #sztucznainteligencja #prawo #technologia #prawoAI
-
-
🔔 NIS2 – co nas czeka? W erze cyfrowej bezpieczeństwo informacyjne staje się kluczowym elementem funkcjonowania każdej organizacji. #NIS2 - nowa dyrektywa Unii Europejskiej, stawia jeszcze wyższe wymagania w zakresie bezpieczeństwa sieci i informacji. 📅 17 października 2024 r. to termin, do którego wszystkie państwa członkowskie zobligowane są zaimplementować dyrektywę w swoim systemie prawnym. 🏛 Trwają prace legislacyjne nad nowelizacją polskiej ustawy o krajowym systemie cyberbezpieczeństwa, które mają na celu dostosowanie krajowych przepisów do wymagań NIS2. Nowe regulacje będą miały ogromny wpływ na wiele sektorów, w tym energetykę, transport, finanse oraz sektor zdrowia. Czasu pozostaje więc coraz mniej, a obowiązków – zdecydowanie przybyło. 🎯 Co to oznacza dla Twojej organizacji? Dyrektywa przede wszystkim reguluje wymagania i obowiązki dla dwóch kategorii podmiotów: kluczowych i ważnych. Te podmioty zobowiązane są m.in. do: 👉Przeprowadzenia analizy ryzyka i wdrożenia proporcjonalnych środków zarządzania ryzykiem w cyberbezpieczeństwie uwzględniając np. wielkości podmiotu, prawdopodobieństwa wystąpienia incydentów; 👉Zapewnienia bezpieczeństwa łańcucha dostaw; 👉Zgłaszania incydentów do odpowiednich organów nadzoru; 👉Zapewnienia ciągłości działania kluczowych usług; 👉Zapewnienia szkoleń w zakresie cyberbezpieczeństwa w ramach organizacji; 👉Powiadamiania odbiorców usług o poważnych incydentach oraz środkach zaradczych; 📈 Dlaczego warto się przygotować? Nie tylko z powodu obowiązków prawnych, ale także aby zyskać przewagę konkurencyjną i budować zaufanie wśród klientów. Organizacje, które będą proaktywnie podchodzić do wdrożenia NIS2, będą postrzegane jako liderzy w dziedzinie bezpieczeństwa informacyjnego. Odpowiednia dokumentacja wdrożeniowa to więc klucz do bycia #CyberSecure. 🔗 Link do pełnego tekstu NIS2: https://lnkd.in/g4M6bKPm #NIS2 #CyberSecurity #Cyberbezpieczeństwo #PrawoTechnologii #BezpieczeństwoInformacji #Compliance #PrawoUE
-
-
📣To już oficjalne: AI Act opublikowany! 📅 12 lipca 2024 r. w Dzienniku Urzędowym UE opublikowano ostateczną treść AI Act. Już niebawem, 1 sierpnia 2024 r., te kluczowe przepisy wejdą w życie! 📅 To kluczowy moment i ostatni dzwonek na przeprowadzenie #AICompliance! 🔍⚖️ AI Compliance to m.in. analiza ryzyka, dostosowanie procedur i zapewnienie szkoleń dla Twojego zespołu. Nowe przepisy dotkną szczególnie te przedsiębiorstwa, które rozwijają lub wdrażają systemy sztucznej inteligencji, a także te, które wykorzystują #AI w swojej codziennej działalności. Czy Twoja organizacja jest gotowa na te zmiany? Jeśli nie, to właśnie teraz jest najlepszy moment, aby zapewnić zgodność regulacyjną i wprowadzić odpowiednią dokumentację wdrożeniową! 💼 🔗 Link do pełnego tekstu AI Act: https://lnkd.in/dUbqAdKa #AI #AIACT #SztucznaInteligencja #Compliance #PrawoAI #Regulacje #AICompliance #Prawo
-
-
📣 21 maja 2024 r. Rada UE przyjęła przełomowy AI Act! 🧾 To pierwsza tak przełomowa i kompleksowa regulacja dotycząca sztucznej inteligencji, której celem jest zapewnienie bezpiecznego i odpowiedzialnego wykorzystania AI. Akt o Sztucznej Inteligencji (#AIAct) reguluje m. in.: ➡ Zakaz stosowania systemów AI, które naruszają podstawowe prawa, jak np. systemy „social scoringu” znane z Chin; ➡ Kategorie poziomów potencjalnego ryzyka (wysokie / średnie / niskie) dla korzystających z systemów AI; ➡ Obowiązki dla dostawców, importerów oraz dystrybutorów systemów AI, w tym tzw. systemów generatywnych (np. ChatGPT); ➡ Obowiązek oznaczania treści tworzonych przez generatywną sztuczną inteligencję, co jest kluczowe w kontekście walki z dezinformacją i deep-fake’ami.. AI Act nie rozwiązuje jednak m. in kwestii wynagrodzeń za wykorzystanie cudzych utworów do uczenia algorytmów, które stanowią coraz większy problem i skutkują procesami przeciwko gigantom technologicznym m.in. w Stanach Zjednoczonych i Wielkiej Brytanii. 📅 AI Act zacznie obowiązywać po dwóch latach. Pełna implementacja #AIAct zakłada różne okresy przejściowe (6/9/12/36 miesięcy od dnia wejścia w życie), w zależności od poziomu potencjalnego ryzyka. Tak jak RODO stało się globalnym wzorem ochrony danych osobowych, tak AI Act ma szansę stać się wzorem regulacji sztucznej inteligencji na całym świecie. Może to właśnie unijny akt uchroni naszą rzeczywistość przed wizją z kultowego Matrixa? 🔗 Polska wersja AI Act: https://lnkd.in/dzkRBA5A #AIAct #SztucznaInteligencja #Prawo #Technologia #Innowacje
-