Język polski, uznawany za jeden z najtrudniejszych na świecie, zaskoczył naukowców z University of Maryland i Microsoftu. W badaniu dotyczącym wydajności dużych modeli językowych (LLM) w pracy z długimi promptami zajął pierwsze miejsce spośród 26 analizowanych języków, wyprzedzając m.in. francuski, włoski i angielski.
Badanie, zatytułowane „One ruler to measure them all: Benchmarking multilingual long-context language models”, obejmowało testy modeli takich jak OpenAI o3-mini-high, Google Gemini 1.5 Flash czy Llama 3.3 (70B). Naukowcy sprawdzali skuteczność modeli w przetwarzaniu promptów o długości do 128 tys. tokenów.
Wyniki okazały się zaskakujące:
Zdaniem autorów raportu, polski – mimo mniejszych zasobów danych – okazał się wyjątkowo efektywny w pracy z długimi i złożonymi poleceniami. Odkrycie to może stać się impulsem do rozwoju technologii AI w Polsce i dowodem, że mniejsze języki mogą mieć przewagę w globalnym wyścigu technologicznym.
Chcesz, żebym przygotował wersję z komentarzem eksperta (np. jak to może wpłynąć na rozwój polskich startupów AI)?
Brak komentarza, Twój może być pierwszy.
Dodaj komentarz