Powstanie pierwszy polski otwarty wielki model językowy (PLLuM) i inteligentny asystent


Artykuły prasowe o tej tematyce:

Polski wielki model językowy PLLuM, wytrenowany na treściach głównie polskojęzycznych, oraz oparty na nim inteligentny asystent - powstaną w ramach współpracy sześciu polskich jednostek naukowych. “Nie stać nas na to, by zostawać w tyle”- komentują przedstawiciele projektu.

Konsorcjum PLLuM (Polish Large Language Universal Model) powstało 29 listopada br. (w przeddzień pierwszych urodzin chatGPT). Tworzy je sześć spośród wiodących w Polsce jednostek naukowych z obszaru sztucznej inteligencji i językoznawstwa: Politechnika Wrocławska (lider konsorcjum), Państwowy Instytut Badawczy NASK (PIB NASK), Ośrodek Przetwarzania Informacji – Państwowy Instytut Badawczy (OPI PIB), Instytut Podstaw Informatyki PAN, Uniwersytet Łódzki oraz Instytut Slawistyki PAN. O powołaniu konsorcjum poinformowali w piątek w przesłanym PAP komunikacie przedstawiciele PIB NASK.

Od około roku wielkie językowe modele generatywne (LLMs) zachwycają niewyobrażalnymi dotychczas możliwościami sztucznej inteligencji. Te najbardziej znane modele, jak ChatGPT czy Google Bard, mają jednak swoje ograniczenia: są płatne, są zamknięte (nie można poznać ani modyfikować ich algorytmów) i zostały wytrenowane ze zbyt małym udziałem treści polskojęzycznych (dlatego w polskich odpowiedziach pojawia się więcej błędów niż w języku angielskim).

Stąd pomysł, aby stworzyć otwarty, darmowy model w większości wytrenowany na treściach polskojęzycznych, a także opracować wykorzystującego ten model inteligentnego asystenta. “Całość projektu ma być przeprowadzona zgodnie z dobrymi praktykami etycznej i odpowiedzialnej sztucznej inteligencji, w tym przy zachowaniu reprezentatywności, przejrzystości i sprawiedliwości danych” - zapewniają przedstawiciele projektu. Istotną rolę odegra tu Krajowe Centrum Doskonałości Danych z siedzibą w NASK-PIB.

Czytaj więcej: Powstanie pierwszy polski otwarty wielki model językowy (PLLuM) i inteligentny asystent (PAP)

CLARIN-PL - Technologie IT w naukach społecznych i humanistycznych


Więcej o projekcie można znaleźć na stronie: Clarin Biz

Politechnika Wrocławska jest liderem konsorcjum polskiej części ogólnoeuropejskiej struktury naukowej CLARIN, obejmującej cyfrowe archiwa tekstowe i narzędzia do ich automatycznej analizy. Umożliwia to badaczom nauk humanistycznych I ścisłych pracę z dużymi zbiorami tekstów. Stanowi również olbrzymią pomoc dla naukowców z innych obszarów nauki. Z nowoczesnych narzędzi opracowanych w ramach projektu mogą korzystać także podmioty komercyjne. CLARIN-PL jest realizowany dzięki dofinansowaniu ze środków Programu Operacyjnego Inteligentny Rozwój, które otrzymał w ramach konkursu ogłoszonego przez Ośrodek Przetwarzania Informacji - Państwowy Instytut Badawczy.

CLARIN-PL z certyfikatem Core Trust Seal

CLARIN to złożony system centrów technologicznych dający dostęp do zasobów, narzędzi i aplikacji badawczych. Jego głównym celem jest umożliwienie badań naukowych w obszarze nauk humanistycznych i społecznych z wykorzystaniem technologii językowej. Dzięki otwartemu dostępowi do większości komponentów Centrum Technologii Językowych, wpływa on również na inne obszary nauki. Z nowoczesnych narzędzi opracowanych w ramach projektu mogą korzystać także podmioty komercyjne, które potrzebują aplikacji do przetwarzania języka naturalnego. Warto podkreślić, że Centrum Technologii Językowych posiada światowy certyfikat repozytorium danych badawczych Core Trust Seal.

- Głównym celem CLARIN-PL Jest dostarczenie polskim naukowcom wszelkich środków potrzebnych do prowadzenia badań wymagają-cych wykorzystania metod przetwarzania dużych ilości tekstów. Nasza infrastruktura jest unikatowa na skalę światową ponieważ powstała specjalnie z myślą o języku polskim i dostarcza autorskich rozwiązań zapewniających precyzyjne wyniki dla badań na tekstach sporządzonych w tym języku. Nasze działania mają na celu udostępnianie zasobów językowych oraz elektronicznych narzędzi do automatycznego przetwarzania języka naturalnego badaczom z różnych dyscyplin naukowych, a w szczególności z dziedziny nauk humanistycznych i społecznych - mówi dr hab. inż. Maciej Piasecki z Politechniki Wrocławskiej, kierownik projektu CLARIN-PL.

Czytaj więcej: CLARIN-PL - Technologie IT w naukach społecznych i humanistycznych

System ANSI – sztuczna inteligencja w wykrywaniu podwójnej jakości produktów


Artykuły prasowe o tej tematyce:

Inne doniesienia medialne:

Radio TokFM: Audycja pt. "Poranek Radia TOK FM - Weekend" Data emisji: 2022-11-13 08:20, Prowadzący: Wojciech Muzal Rozmowa z Łukasz Kobyliński (IPI PAN): Podcast radia TokFM; 13.11.2022

Radio dla Ciebie: Audycja pt. "Z innej planety" Data emisji: 2022-12-20 08:20, Prowadzący: Wojciech Muzal Rozmowa z Łukasz Kobyliński (IPI PAN): Podcast Radia dla Ciebie; 20.12.2022

Więcej o projekcie można znaleźć na stronie lidera: opi.org.pl/projekt/identyfikowanie-opinii-konsumentow-(...)-dual-quality-przy-uzyciu-systemu-opi-pib-i-ipi-pan/

Podwójna jakość produktów (dual quality) to problem, który nadal istnieje na rynku, mimo że prawo unijne zabrania takich praktyk. Ten sam produkt kupiony w Niemczech, Szwecji czy Polsce powinien być tej samej jakości, niestety nadal się zdarza, że nieuczciwi producenci w naszym kraju sprzedają towar o gorszych parametrach jakościowych. Z pomocą w walce z niedozwolonymi praktykami konsumenckimi przychodzi sztuczna inteligencja. Eksperci z Ośrodka Przetwarzania Informacji - Państwowego Instytutu Badawczego (OPI) wraz z naukowcami z Instytutu Podstaw Informatyki Polskiej Akademii Nauk (IPI PAN) zaprojektowali system informatyczny ANSI. Służyć on będzie do identyfikowania opinii konsumentów na temat bezpieczeństwa produktów i ich jakości, z uwzględnieniem dual quality. System powstanie w ramach projektu sfinansowanego przez Narodowe Centrum Badań i Rozwoju (NCBR), w ramach programu INFOSTRATEG III.

Sztuczna inteligencja pomaga chronić prawa konsumenta
W czasach zglobalizowanego rynku, na którym konsument ma dostęp do znacznego wolumenu produktów i usług, wykrycie nieuczciwej praktyki handlowej nie jest proste. Oszustom dużo łatwiej ukryć się przed odpowiednimi służbami. Możliwości manualnej analizy pojedynczego człowieka, a nawet grupy ludzi, są ograniczone. Pracownicy odpowiednich instytucji nie są w stanie efektywnie przeanalizować wszystkich możliwych produktów dostępnych na rynku. Na szczęście z pomocą przychodzi sztuczna inteligencja (SI), która coraz częściej efektywnie wspiera pracę człowieka. – Można powiedzieć, że OPI staje się ekspertem w dostarczaniu nowoczesnych narzędzi do ochrony praw konsumenta. Trwają prace nad wdrożeniem systemu dla UOKiK, który wykrywa zapisy niedozwolone w umowach. Teraz wspólnie z ekspertami z IPI PAN dostaliśmy dofinansowanie z programu INFOSTRATEG III na opracowanie narzędzia, które skutecznie będzie walczyć m.in. z podwójną jakością produktów. W obu tych przypadkach wykorzystujemy sztuczną inteligencję. Dzięki niej możemy lepiej dbać o prawa konsumentów – mówi dr inż. Jarosław Protasiewicz, dyrektor Ośrodka Przetwarzania Informacji. Prace nad opracowaniem i wdrożeniem systemu ANSI zostaną zakończone najpóźniej w 2025 roku. Nowoczesne narzędzie będzie służyć do identyfikowania opinii konsumentów na temat bezpieczeństwa produktów i ich jakości, z uwzględnieniem dual quality. – Dzięki zastosowaniu najnowszych metod przetwarzania języka naturalnego jesteśmy w stanie zidentyfikować produkty, których jakość w Polsce powinna być dodatkowo zbadana w laboratorium, nie poprzez bezpośrednie analizowanie każdego fizycznego produktu z osobna, ale pośrednio, na podstawie opinii o tych produktach, dostępnych w internecie. Jest to bardzo ciekawe zastosowanie metod sztucznej inteligencji, które w pozytywnym sensie wykorzystuje fakt, że tak duża część naszego życia przeniesiona jest obecnie do sfery wirtualnej – mówi dr Łukasz Kobyliński, adiunkt w Zespole Inżynierii Lingwistycznej IPI PAN, kierownik zadań IPI PAN w projekcie ANSI.

ANSI oparto na wielojęzycznych danych
Narzędzie OPI i IPI PAN będzie działać w oparciu o metody i techniki z zakresu sztucznej inteligencji, szczególnie uczenia maszynowego i głębokiego. System będzie służyć do identyfikowania produktów na podstawie wielonarodowych preferencji i wielojęzycznych opinii konsumentów opublikowanych w internecie. Po wnikliwej analizie posłużą one do wytypowania i utworzenia rekomendacji – skierowania bądź też nie – danego produktu do weryfikacji laboratoryjnej. Metody i techniki te będą zastosowane do utworzenia następujących modeli: wydobywania opinii z internetu i ich strukturalizowania, określania języka – w jakim napisana została opinia, analizy sentymentu, a także tworzenia rekomendacji dotyczącej skierowania do weryfikacji laboratoryjnej. W wyniku projektu, sfinansowanego przez Narodowe Centrum Badań i Rozwoju (NCBR) w ramach programu INFOSTRATEG III, opracowane zostanie unikatowe rozwiązanie. – Nasze narzędzie pozwoli na identyfikowanie opinii konsumentów na podstawie analizy wielojęzycznych zasobów internetowych, takich jak: portale aukcyjne, zakupowe blogi, fora, strony różnych instytucji nadzorujących przestrzeganie prawa z zakresu ochrony konsumentów, witryny organizacji konsumenckich itp. Rozwiązanie będzie umożliwiało identyfikowanie produktów, w których zaobserwowano różnice jakościowe w zależności od rynku, na który są produkowane i dostarczane. ANSI z pewnością będzie stanowiło wsparcie przede wszystkim dla pracowników UOKiK – mówi dr inż. Marcin Mirończuk z Laboratorium Inteligentnych Systemów Informatycznych w OPI.

Czytaj więcej: System ANSI – sztuczna inteligencja w wykrywaniu podwójnej jakości produktów

Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu?


pap nwp logo

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może wspomóc psychiatrów i psychologów w rozpoznawaniu objawów schizofrenii, a kiedyś - może i autyzmu.

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może wspomóc psychiatrów i psychologów w rozpoznawaniu objawów schizofrenii, a kiedyś - może i autyzmu.

Wyniki badań na ten temat ukazały się w „Cognitive Computation” (https://doi.org/10.1007/s12559-021-09834-9). Autorami są małżonkowie dr Aleksander Wawer z Instytutu Podstaw Informatyki PAN i dr Justyna Sarzyńska-Wawer z Instytutu Psychologii PAN, a także dr Izabela Chojnicka z Wydziału Psychologii UW i dr hab. Łukasz Okruszek z IP PAN.

Czytaj więcej: Sztuczna inteligencja wesprze w diagnozie schizofrenii (Nauka w Polsce - PAP)

Algorytm wykryje fake newsy na podstawie stylu


pap nwp logo

Artykuły prasowe o tej tematyce:

Więcej o projekcie można znaleźć na stronie: homados.ipipan.waw.pl

Nad algorytmem, który na podstawie cech stylistycznych tekstu informacyjnego wykryje, czy jest on fałszywy lub zmanipulowany, pracuje dr inż. Piotr Przybyła z PAN. Jego zespół chce w ten sposób nie tylko wykrywać fake newsy, ale też boty w mediach społecznościowych.

Algorytmy, które wykrywają zmanipulowane lub szkodliwe treści, nie są nowością. Korzystają z nich na przykład media społecznościowe, takie jak Facebook czy Twitter. Jednak wielkie korporacje niechętnie dzielą się informacjami, na jakiej zasadzie one pracują.

"Brakuje w tej kwestii transparentności z ich strony" - uważa dr inż. Piotr Przybyła z Instytutu Podstaw Informatyki PAN. Zespół pod jego kierownictwem zajął się budową algorytmu, który jest w dużej mierze nowatorski, bo do tej pory naukowcy skupiali się na analizie prawdziwości faktów podanych w treści. Przybyła stwierdził, że warto przyjrzeć się stylowi tekstów udostępnianych online, w formie artykułów newsowych i postów w mediach społecznościowych.

"Chcemy sprawdzić, jaka będzie wydajność oceny wiarygodności dokumentu na podstawie cech czysto stylistycznych" - dodał.

Podkreśla, że jego celem jest stworzenie takiego algorytmu, który nie tylko wykryje fake newsy (które są najbardziej jaskrawym przykładem zmanipulowanych treści), ale też innych technik propagandowych i botów.

Czytaj więcej: Algorytm wykryje fake newsy na podstawie stylu (PAP - Nauka w Polsce)


© 2021 INSTYTUT PODSTAW INFORMATYKI PAN | Polityka prywatności | Deklaracja dostępności