Kamień Dekoracyjny KAMYCZEK
o mnie
zakres usług
moje opinie
moje ogłoszenia
|
Powiem tak pracowalem dla tej oszustki jest oszustkom i to jak klijenci piszą wszystko jest pakowane w kartonach po pomidorach a te kartony są zbierane z spod lidla biedronki i roznych hipermarketów ludzie niekupujcie unich doluzcie pare groszy wiecej i kupcie gdzie indziej a do ciebie iwona twoje dni są policzone szykuj szmal |
|
|
|
To firma nie "kamyczek" tylko "dziad", oszukała mnie na 2 tys. zł. Kamień pokruszony i zamówienie nie zrealizowane. Że też dałam się tak nabrac. |
|
|
|
Zapomnij o kasie od IWONKI, bo jak będziesz ją nękał , to poda cie do sadu, to jej sposob aby zastraszyć osoby oszukane. Z czego zwroci oszukanym ludziom, jak samych kosztów sądowych przez lata uzbierało się około miliona zł z odsetkami. Iwonka niedługo zostanie celebrytką. |
|
|
|
Witam czy odzyskal ktos z was pieniadze od tej oszustki jest tak jak to zrobiliscie? Glupie babsko mysli ze moze ludźmi pomiatac.... towar popekany dowieziona tylko część materialow telefon wogole nie odpowiada.... porazka NIE POLECAM!!!! |
|
|
Dyskusja:
Opinia: |
Pozytywna
|
Autor: oszukana
|
360646 |
Chwila, chwila, jak to nie ma firmy? Przecież trzy tygodnie temu zamówilam tam kamień i dostałam kupę gruzu, a do **** to trzeba dobrać się ale tej oszustce, co bierze kasę i wysyła do klienta takie mokre pokruszone świnstwo i jeszcze się oburza, że ktoś reklamuje to badziewie ,żądając zwrotu pieniędzy.Kogo chcesz odnaleść ? Iwonkę Wożniak, dam ci numer telefonu. Jeżeli twierdzisz, ze firma nie istnieje, to pani Wożniak najwyrażniej sprzedaje kradzony gruz,jako kamień dekoracyjny i ładuja to łopatą do mokrych pudełek po kurczakach, brak faktury, rachunku, co jeszcze więcej trzeba aby sprawę zgłosić do US. Ja czekam do 14lutego na zwrot pieniedzy, potem robię swoje , a ty jeżeli nie widziałeś, co ta pseudo włascicielka wysyła klientom nie zabieraj głosu. |
|
Opinia: |
Pozytywna
|
Autor: OBSERWATOR OD KILKU LAT TEGO PROFILU
|
360527 |
Wiesz co z tego co wiem to tej firmy nie ma około 4-5 lat a ty idjoto jeszcze piszesz bo za każde usunięcie wpisu żądasz 500 zł kiedyś ktoś ci się dobierze do **** i nie pomogą ci serwery za granicami kraju
Znajdz inny sposób na biznes bo na miejscu tej kobiety dobrałbym ci się do **** i zażadał takiego odszkodowania jakich mało,postaram się ją odnaleźć,te twoje portale jak dach i inne to śmietnik na których sam dodajesz opinie o różnych firmach a za każde usunięcie żądasz zapłaty,twój zegar ruszył i twoich portali idż rowy kopać a nie poniżaj innych ****** |
|
Opinia: |
Pozytywna
|
Autor: autorka
|
360234 |
Czekam jeszcze 10 dni potem zgłaszam sprawę policji i do US, kupa mokrego , załadowanego łopatą gruzu do kartonów po kurczakach i mandarynkach, kolor nie ten, brak faktury to juz policje powinno zainteresować. Rozumiem ,ze ty nie odzyskałeś kasy? Jak długo czekasz? |
|
|
|
O Ruchu Światło-Życie
Ruch Światło-Życie jest jednym z ruchów odnowy Kościoła według nauczania Soboru Watykańskiego II. Gromadzi ludzi różnego wieku i powołania: młodzież, dzieci, dorosłych, jak również kapłanów, zakonników, zakonnice, członków instytutów świeckich oraz rodziny w gałęzi rodzinnej, jaką jest Domowy Kościół. Poprzez odpowiednią dla każdej z tych grup formację Ruch Światło-Życie wychowuje dojrzałych chrześcijan i służy odnowie Kościoła przez przekształcanie parafii we wspólnoty wspólnot.
Znakiem Ruchu Światło-Życie jest starochrześcijański symbol fos-zoe (gr. słowa światło i życie splecione literą omega, tworzące krzyż).
Duchowość Ruchu Światło-Życie została wyrażona w „Drogowskazach Nowego Człowieka”. Małżonkowie żyjąc treścią „Drogowskazów” realizują je w „Zobowiązaniach Domowego Kościoła”.
Cel Ruchu Światło-Życie jest osiągany poprzez realizację programu formacyjnego. Każdy uczestnik Ruchu po ewangelizacji, prowadzącej do przyjęcia Jezusa Chrystusa jako swego Pana i Zbawiciela, uczestniczy w formacji w grupie uczniów Jezusa (deuterokatechumenat) a następnie we wspólnocie diakonijnej, podejmując konkretną służbę (diakonię) w Kościele i świecie. Ewangelizacja – katechumenat – diakonia, to trzy etapy drogi formacyjnej Ruchu Światło-Życie na wszystkich poziomach formacji.
Podstawowe metody realizacji programu formacyjnego to: metoda „światło-życie”, przenikająca wszystkie elementy programu formacyjnego, oaza rekolekcyjna i mała grupa formacyjna.
Specyfiką metody Ruchu Światło-Życie jest realizacja zasady „życie z życia” i zasady organicznego wzrostu.
Struktura ruchu jest zgodna ze strukturą Kościoła Małe grupy do których należą uczestnicy Ruchu, zasadniczo tworzą jego wspólnotę w parafii. Wspólnoty Ruchu utrzymują ze sobą łączność spotykając się na Dniach Wspólnoty.
Odpowiedzialność za całość Ruchu sprawuje Moderator Generalny Ruchu Światło-Życie. Na szczeblu kraju, diecezji i parafii odpowiedzialność pełnią moderatorzy krajowi, diecezjalni i parafialni. Każdy moderator pełni swą posługą wraz z zespołem diakonii. Diakonię moderacji mogą pełnić zarówno osoby świeckie, jak i duchowne.
Kapłani w Ruchu spełniają rolę moderatorów, a nie należący do niego – opiekunów. Spoczywa na nich odpowiedzialność za duchową formacją uczestników Ruchu i eklezjalność wspólnot.
Początki historii Ruchu sięgają pierwszej oazy, która odbyła się w r. 1954 Ruch Światło-Życie rozwinął się z oaz – rekolekcji zamkniętych prowadzonych metodą przeżyciową.. Przed rokiem 1976 Ruch był znany pod nazwą „Ruch oazowy”, „Ruch Żywego Kościoła”. Twórcą oazy, założycielem Ruchu i pierwszym moderatorem krajowym był ks. Franciszek Blachnicki (24 III 1921 – 27 II 1987). Ruch Światło-Życie powstał i rozwija się w Polsce, a w ostatnich kilkunastu latach rozszerza się również poza jej granicami: na Słowacji, w Czechach, w Niemczech, na Białorusi, Łotwie.
Anna Wojtas
źródło: http://www.oaza.pl/dzial.php?prezentacja
Strona główna Ruchu Światło-Życie
Strona o Ruchu Światło-Życie
O Ruchu Światło-Życie
Ruch Światło-Życie jest jednym z ruchów odnowy Kościoła według nauczania Soboru Watykańskiego II. Gromadzi ludzi różnego wieku i powołania: młodzież, dzieci, dorosłych, jak również kapłanów, zakonników, zakonnice, członków instytutów świeckich oraz rodziny w gałęzi rodzinnej, jaką jest Domowy Kościół. Poprzez odpowiednią dla każdej z tych grup formację Ruch Światło-Życie wychowuje dojrzałych chrześcijan i służy odnowie Kościoła przez przekształcanie parafii we wspólnoty wspólnot.
Znakiem Ruchu Światło-Życie jest starochrześcijański symbol fos-zoe (gr. słowa światło i życie splecione literą omega, tworzące krzyż).
Duchowość Ruchu Światło-Życie została wyrażona w „Drogowskazach Nowego Człowieka”. Małżonkowie żyjąc treścią „Drogowskazów” realizują je w „Zobowiązaniach Domowego Kościoła”.
Cel Ruchu Światło-Życie jest osiągany poprzez realizację programu formacyjnego. Każdy uczestnik Ruchu po ewangelizacji, prowadzącej do przyjęcia Jezusa Chrystusa jako swego Pana i Zbawiciela, uczestniczy w formacji w grupie uczniów Jezusa (deuterokatechumenat) a następnie we wspólnocie diakonijnej, podejmując konkretną służbę (diakonię) w Kościele i świecie. Ewangelizacja – katechumenat – diakonia, to trzy etapy drogi formacyjnej Ruchu Światło-Życie na wszystkich poziomach formacji.
Podstawowe metody realizacji programu formacyjnego to: metoda „światło-życie”, przenikająca wszystkie elementy programu formacyjnego, oaza rekolekcyjna i mała grupa formacyjna.
Specyfiką metody Ruchu Światło-Życie jest realizacja zasady „życie z życia” i zasady organicznego wzrostu.
Struktura ruchu jest zgodna ze strukturą Kościoła Małe grupy do których należą uczestnicy Ruchu, zasadniczo tworzą jego wspólnotę w parafii. Wspólnoty Ruchu utrzymują ze sobą łączność spotykając się na Dniach Wspólnoty.
Odpowiedzialność za całość Ruchu sprawuje Moderator Generalny Ruchu Światło-Życie. Na szczeblu kraju, diecezji i parafii odpowiedzialność pełnią moderatorzy krajowi, diecezjalni i parafialni. Każdy moderator pełni swą posługą wraz z zespołem diakonii. Diakonię moderacji mogą pełnić zarówno osoby świeckie, jak i duchowne.
Kapłani w Ruchu spełniają rolę moderatorów, a nie należący do niego – opiekunów. Spoczywa na nich odpowiedzialność za duchową formacją uczestników Ruchu i eklezjalność wspólnot.
Początki historii Ruchu sięgają pierwszej oazy, która odbyła się w r. 1954 Ruch Światło-Życie rozwinął się z oaz – rekolekcji zamkniętych prowadzonych metodą przeżyciową.. Przed rokiem 1976 Ruch był znany pod nazwą „Ruch oazowy”, „Ruch Żywego Kościoła”. Twórcą oazy, założycielem Ruchu i pierwszym moderatorem krajowym był ks. Franciszek Blachnicki (24 III 1921 – 27 II 1987). Ruch Światło-Życie powstał i rozwija się w Polsce, a w ostatnich kilkunastu latach rozszerza się również poza jej granicami: na Słowacji, w Czechach, w Niemczech, na Białorusi, Łotwie.
Anna Wojtas
źródło: http://www.oaza.pl/dzial.php?prezentacja
Strona główna Ruchu Światło-Życie
Strona o Ruchu Światło-Życie
O Ruchu Światło-Życie
Ruch Światło-Życie jest jednym z ruchów odnowy Kościoła według nauczania Soboru Watykańskiego II. Gromadzi ludzi różnego wieku i powołania: młodzież, dzieci, dorosłych, jak również kapłanów, zakonników, zakonnice, członków instytutów świeckich oraz rodziny w gałęzi rodzinnej, jaką jest Domowy Kościół. Poprzez odpowiednią dla każdej z tych grup formację Ruch Światło-Życie wychowuje dojrzałych chrześcijan i służy odnowie Kościoła przez przekształcanie parafii we wspólnoty wspólnot.
Znakiem Ruchu Światło-Życie jest starochrześcijański symbol fos-zoe (gr. słowa światło i życie splecione literą omega, tworzące krzyż).
Duchowość Ruchu Światło-Życie została wyrażona w „Drogowskazach Nowego Człowieka”. Małżonkowie żyjąc treścią „Drogowskazów” realizują je w „Zobowiązaniach Domowego Kościoła”.
Cel Ruchu Światło-Życie jest osiągany poprzez realizację programu formacyjnego. Każdy uczestnik Ruchu po ewangelizacji, prowadzącej do przyjęcia Jezusa Chrystusa jako swego Pana i Zbawiciela, uczestniczy w formacji w grupie uczniów Jezusa (deuterokatechumenat) a następnie we wspólnocie diakonijnej, podejmując konkretną służbę (diakonię) w Kościele i świecie. Ewangelizacja – katechumenat – diakonia, to trzy etapy drogi formacyjnej Ruchu Światło-Życie na wszystkich poziomach formacji.
Podstawowe metody realizacji programu formacyjnego to: metoda „światło-życie”, przenikająca wszystkie elementy programu formacyjnego, oaza rekolekcyjna i mała grupa formacyjna.
Specyfiką metody Ruchu Światło-Życie jest realizacja zasady „życie z życia” i zasady organicznego wzrostu.
Struktura ruchu jest zgodna ze strukturą Kościoła Małe grupy do których należą uczestnicy Ruchu, zasadniczo tworzą jego wspólnotę w parafii. Wspólnoty Ruchu utrzymują ze sobą łączność spotykając się na Dniach Wspólnoty.
Odpowiedzialność za całość Ruchu sprawuje Moderator Generalny Ruchu Światło-Życie. Na szczeblu kraju, diecezji i parafii odpowiedzialność pełnią moderatorzy krajowi, diecezjalni i parafialni. Każdy moderator pełni swą posługą wraz z zespołem diakonii. Diakonię moderacji mogą pełnić zarówno osoby świeckie, jak i duchowne.
Kapłani w Ruchu spełniają rolę moderatorów, a nie należący do niego – opiekunów. Spoczywa na nich odpowiedzialność za duchową formacją uczestników Ruchu i eklezjalność wspólnot.
Początki historii Ruchu sięgają pierwszej oazy, która odbyła się w r. 1954 Ruch Światło-Życie rozwinął się z oaz – rekolekcji zamkniętych prowadzonych metodą przeżyciową.. Przed rokiem 1976 Ruch był znany pod nazwą „Ruch oazowy”, „Ruch Żywego Kościoła”. Twórcą oazy, założycielem Ruchu i pierwszym moderatorem krajowym był ks. Franciszek Blachnicki (24 III 1921 – 27 II 1987). Ruch Światło-Życie powstał i rozwija się w Polsce, a w ostatnich kilkunastu latach rozszerza się również poza jej granicami: na Słowacji, w Czechach, w Niemczech, na Białorusi, Łotwie.
Anna Wojtas
źródło: http://www.oaza.pl/dzial.php?prezentacja
Strona główna Ruchu Światło-Życie
Strona o Ruchu Światło-Życie |
|
|
|
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization |
|
|
|
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization |
|
|
|
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization |
|
|
|
The Wikimedia Foundation’s Search Platform team recently worked with Daniel Worley and Doug Turnbull from Open Source Connections on a Learning to Rank plugin for Elasticsearch, the software the powers search on Wikimedia sites, designed to apply machine learning to search relevance ranking. We recently chatted with Erik Bernhardson, a software engineer at the Wikimedia Foundation, on how the plugin will help improve search results across language wikis.
Q: Erik, I know you initially used your 10% time to think through this idea. Can you share a little on how that led to thinking about a plug-in?
Erik: Initially I started think about this due to a talk I saw at the Lucene/Solr Revolution 2015 conference. I had also been pondering it a bit because Justin Ormont, an advisor to the search team, had suggested that machine learning could be a reasonable way to solve a subset of our search optimization problems.
One of the problems with optimizing search rankings is that we have to manually choose weights that decide how important various features are. Adding new features means manually retuning the weights. As my colleague Trey Jones noted in a recent blog post on search relevance, those features might include:
“How common each individual word is overall. (As the most common word in the English language, theis probably less important to a query than somewhat rarer friggatriskaidekaphobia.)
How frequently each word appears in a given article. (Five matches is probably better than four matches, right?)
Whether there are any matching words in the title or a redirect. (Well, if you search for just the, an article on English’s definite article does look pretty good.)
How close the words are to each other in the article or title. (Why is there a band called “The The”?)
Whether words match exactly or as related forms. (The query term resume also matches both resuming and résumé.)
How many words are in the query.
How many words are in the article. (Okay, maybe five matches in a twenty thousand word article might be worse than four matches in a five hundred word article.)
How often an article gets read. (Popular articles are probably better.)
How many other articles link to an article. (Did I mention that popular articles are probably better?”
Applying machine learning to this problem puts the complicated question of how to weigh these bits of evidence in the hands of a machine.The machine is much better equipped to handle optimizing the tradeoffs of, for example, increasing the importance given to how well the search query matches the categories of an article, as it is able to take into account what effect that has on a large sampling of queries. Machine learning is additionally able to apply non-linear transformations. We do this to some extent ourselves with the traditional search ranking, but it’s much easier for a computer.
In my 10% time I built out an offline machine learning pipeline. This is something where i can feed clickthrough data in one end, and at the other end it will output example result result pages for search queries. This was useful for proving machine learning was a workable idea, but rather useless for answering a user’s search query in a fraction of a second. That’s why we had the idea to build a plugin for Elasticsearch that was able to store machine learned models and apply them in response to user search queries.
Tell me a little bit about the Elasticsearch Learning To Rank plugin—what does it do, and what problem does it solve?
Erik: The Elasticsearch Learning To Rank plugin primarily allows us to apply a machine learned ranking algorithm for ranking search results. This is not an end-to-end solution, because collecting data for the machine learning to evaluate, deciding what features to provide to the algorithm, and training the actual models is all handled separately.
But this plugin provides a couple of important pieces of the puzzle. It acts as a data store for features—that is, definitions of how to calculate the individual data points that the machine learning utilizes—and models. It provides support for collecting feature vectors needed for training the model. And it performs the final, critical, step of actually using that model to rank queries in response to a user’s search request.
This is certainly not the only way to rank queries, but we have some unique constraints that make it particularly enticing. We run many wikis in many different languages. Ideally the search algorithm would be tuned for each site individually. The appropriate importance of various features may vary between Arabic Wikipedia, English Wikipedia, and German Wikipedia, for example. There are even larger differences between projects, such as Wikipedia and Wiktionary, even in the same language. But we have limited engineering resources devoted to search—and it is next to impossible for us to hand tune the search algorithm for each site.
In the past, we have tuned the search algorithm for English Wikipedia, and every other project and language gets that same tuning regardless of how well it works for their particular site. With machine learning, however, we can learn a model for each wiki that has enough search traffic for us to look at logs of searches and clicks to use statistical modeling to determine what results are preferred.
You mentioned parts of the machine learning that are not handled by the plugin, how does that work?
Erik: We have built up an additional project, highly specialized to our use case, called MjoLniR. MjoLniR does three main things: It applies a User Browsing Model to transform logs of searches and clicks into a relevance score for query/article pairs, It communicates with the Elasticsearch LTR plugin to collect feature vectors for query/article pairs, and it performs training and hyperparameter optimization of ML models in our analytics cluster using XGBoost.
While all of those parts are important, and we couldn’t move forward without them, the most important part of any machine learning process is the training data — a query, an article, and a relevance score denoting how well the query matches the article—used to train the model. We are currently building our training data based on user clickthroughs on search result pages. Clickthroughs from search to an article page are logged and stored for 90 days, per our privacy policy. We then apply a bit of clustering to group together queries that are similar but not exactly the same and apply a user browsing model to transform those clickthroughs into a relevance score.
For example, love, Love and LOVE go together, and loving, the lovings, The lovings, the loving and loving] get grouped together (etc). These groups of clickthroughs are fed into an algorithm called a DBN, or more generally a User Browsing Model. This model takes into account expected user behavior on search pages, such as expecting that if a user clicks the third search result, then they probably also looked at the first and second and rejected them.
The DBN also considers that if the user clicked the third result, then comes back to the search page to click on the fifth result, then the third result is attractive and more suitable than the first or second results, but that the fifth result is probably better for some reason. The DBN aggregates together user behavior for the groups of queries to estimate the relevancy of article and query pairs. We currently require at least ten distinct search sessions in each group of queries, but will be testing variations to determine how many sessions are actually required for reliable relevance data. For more information, I suggest reading Olivier Chapelle and Ya Zhang’s paper “A dynamic bayesian network click model for web search ranking.”
I’m curious about how the search algorithm might differ based on language—can you go into more detail about the ways in which they might be different?
Erik: It’s hard to explain exactly, but the various scores we compose together to create the final score per article/query pair do not have the same distribution across different wikis. Because the distribution varies, the optimal way to combine those values into a final score also varies. Perhaps one way to think of this would be the popularity score we use as a ranking signal—which is generally about the second strongest signal, right after how well the query matches the article title. This popularity score is the percentage of page views over the course of a week that went to that particular article.
Wikis with more articles are going to have lower average values for this, so the algorithm needs to apply slightly different weights. Because this gets a bit complicated we never actually started using the popularity score on wikis other than English Wikipedia prior to applying machine learning. There are of course statistical methods to handle this without going all the way to machine learning; a bit of math could be applied to re-center the data and make it look relatively similar between the wikis, but it would still fundamentally differ between languages such that no exact weight would be correct for all wikis.
Can anyone use this plug-in and if so, how? How can they get more deeply involved in the project?
Erik: Anyone using Elasticsearch, a popular open source search engine, can use the plugin. As mentioned above though the plugin is only the final step. The best way to get involved is to visit the project page on GitHub and try it out. There is a demo included in the repository that demonstrates a full pipeline of building a training set, training a model, loading the model into Elasticsearch, and then ranking search results with the model.
How do you know the machine learning results are as good as the hand-tuned results? How much better are they?
Erik: There are a variety of evaluation metrics that can be applied both offline, with judgement lists, and online, with A/B tests. For offline testing we use the same judgement lists that are used to train the model with cross validation to estimate the performance of the model.
Currently we use judgement lists generated by applying statistical models of user behavior to clickthroughs on queries. We are looking to augment this with human judgements via the relevance surveys currently being run on article pages. The Offline evaluation of the machine learning models with our first generation feature set show an improvement of between 20% and 40% of the possible improvement (this varies per-wiki) on the NDCG@10 evaluation metric.
Our online evaluation of the machine learning models has only been completed on English Wikipedia thus far, but we are currently running A/B tests on 18 more language Wikipedias which represent almost all wikis with > 1% of full text search volume.
On English Wikipedia the A/B test showed a clickthrough rate of 106% of the baseline, and session abandonment (sessions that search but don’t click on any results) at 98% of the baseline. While these numbers are not particularly huge, they only represent our initial foray into machine learned ranking. The goal of the very first model is to match or slightly exceed the quality of the existing search results, as there are quite a few pieces to build and tie together to get to this point. Even matching the existing performance means the process of collecting click data, generating judgement lists, collecting feature vectors, training models, and running those models in production is all working correctly. With all those pieces working it is now significantly easier for us to evaluate new ranking signals and improve the scoring function going forward.
Does the machine learning model get out of date?
Erik: Yes. Over time the distribution of feature values changes due to changes in the content of the wiki and the model needs to be retrained with the new feature values. The judgement lists used to train the model also change over time, as we aggregate together the last 90 days of search results and clickthroughs to build the judgement lists. On the largest wikis the percentage of content that is changed is low, relative to the total amount of content, so the feature values don’t change too much. We haven’t been running the machine learned ranking for long enough to say how much the judgement lists change over time, but I expect there to be some variation for two reasons: One is that user behavior can change over time, and second is that the results we return to users change over time, so the data the algorithms have to work with changes.
Do different people get different results?
Erik: While personalization of results can be a feature of machine learned ranking, we don’t apply any form of personalization at the user level or at higher levels, such as by geographic region. With respect to single user personalization, we don’t associate the data used for training, such as web requests or searches, to uniquely identifiable information that would allow for aggregating months of data together for individual users. This is a conscious decision to intrude as little as possible on user privacy while building out a ranking system that learns from user behavior.
Melody Kramer, Senior Audience Development Manager, Communications
Wikimedia Foundation
Thank you to Mairead Whitford Jones for asking really good questions for this post.
0 Comments on How we collaborated to build a new open source plugin to improve search results across language-wikis
Leave a Reply
Get Connected
Get our email updates
Meet our community
Telling the story of Stockholm through Wikipedia: Holger Ellgaard
Pranayraj Vangari has written a new Wikipedia article every day for the last year
More Community Profiles
Most viewed this month
Wikimedia Vakfı Türk makamlarından Vikipedi erişimini yeniden sağlamasını talep ediyor
29 Nisan Cumartesi günü Vikipedi Türkiye\'de...
Knowing when to quit: What we’re doing to limit the number of fundraising banners you see on Wikipedia
The goal of the Wikimedia Foundation’s...
Raju Narisetti joins Wikimedia Foundation Board of Trustees
Media veteran brings nearly three decades...
Archives
October 2017
20
September 2017
21
August 2017
18
July 2017
22
June 2017
18
Older Posts
2586
Work at Wikimedia
Work with the foundation that supports Wikipedia and its sister projects around the world. Apply and join us
Wikimedia Foundation
The Wikimedia Foundation, Inc is a nonprofit charitable organization dedicated to encouraging the growth, development and distribution of free, multilingual content, and to providing the full content of these wiki-based projects to the public free of charge. Get Involved | Log In
Wikimedia Projects
The Wikimedia Foundation operates some of the largest collaboratively edited reference projects in the world.
Wikipedia
Commons
MediaWiki
Wikibooks
Wikidata
Wikinews
Wikiquote
Wikisource
Wikispecies
Wikiversity
Wikivoyage
Wiktionary
Wikimedia Movement Affiliates
The Wikimedia projects have an international scope, and the Wikimedia movement has already made a significant impact throughout the world. To continue this success on an organizational level, Wikimedia is building an international network of associated organization |
|
|
|
Z nowych i ostatnio rozbudowanych artykułów w Wikipedii napisanych podczas tygodnia artykułu ugandyjskiego:
King Mwanga II Buganda.jpg
…dlaczego Mwanga II (na zdjęciu) musiał uciekać z kraju?
…który ugandyjski kompozytor nadaje fortepianowi brzmienie zbliżone do instrumentów afrykańskich?
…kto jest rekordzistą Afryki w długości skoku narciarskiego?
…że ugandyjski reżyser Robert Serumaga wdrażał teorię Grotowskiego?
…który bugandyjski polityk jest uważany za jednego z pierwszych afrykańskich historyków?
…gdzie odpowiednikiem króla jest kabaka?
…który władca Bugandy rozkazał stracić poddanych niechcących przyjąć islamu, a rok później tych, którzy obstawali przy islamie?
Propozycje do ekspozycji • Jak napisać nowy artykuł?
Wydarzenia
WTA Finals • Zmiana czasu
Fats DominoFats Domino
Regionalny parlament Katalonii ogłosił niepodległość Republiki Katalonii. Była to kontynuacja działań podejmowanych m.in. przy pomocy uchwały z 9 listopada 2015 oraz plebiscytu z 2017 roku. (27 października)
W wyborach do Izby Poselskiej Republiki Czeskiej zwyciężyła partia ANO 2011 (29,64% głosów). (21 października)
Zmarli: Vilnis Edvīns Bresis • Fats Domino (na zdjęciu) • Reinhold Durnthaler • Robert Guillaume • George Young
Więcej…
Rocznice
29 października: imieniny obchodzą m.in.: Wioleta, Felicjan i Zenobiusz
Okrągłe, pięcioletnie rocznice:
Stavovské divadlo w PradzeStavovské divadlo w Pradze
Stanisław OstrowskiStanisław Ostrowski
1787 – prapremiera opery Don Giovanni Mozarta w Gräflich Nostitzsches National-Theater w Pradze (na fotografii)
1822 – urodził się polski duchowny katolicki Mieczysław Halka-Ledóchowski, arcybiskup metropolita poznański i gnieźnieński, prymas Polski w latach 1866–1886, kardynał od 1875
1892 – urodził się Stanisław Ostrowski (na fotografii), profesor nauk medycznych, poseł na Sejm II RP, ostatni polski prezydent Lwowa, prezydent Rzeczypospolitej na uchodźstwie w latach 1972–1979
1957 – zmarł amerykański przedsiębiorca Louis B. Mayer, współzałożyciel wytwórni filmowej Metro-Goldwyn-Mayer
1967 – premiera filmowego musicalu Hair w reżyserii Miloša Formana
1972 – zmarł polski prawnik Paweł Kempka, współtwórca ustroju prawnego Autonomii Śląskiej
1997 – zmarł amerykański satanista Anton LaVey, twórca myśli filozoficznej satanizmu laveyańskiego, którą wyłożył w swej publikacji Biblia Szatana
28 października • Kalendarium dzień po dniu • 30 października
Artykuł na medal
Red and white wine 12-2015.jpg
Wino – napój alkoholowy uzyskiwany w wyniku fermentacji moszczu winogronowego. Istnieje wiele rodzajów win, co związane jest z mnogością odmian winorośli, oddziaływaniem środowiska na ich wzrost i różnymi technikami winifikacji. Można wyróżnić wina białe, różowe oraz czerwone. Ze względu na zawartość cukru można je podzielić na wytrawne, półwytrawne, półsłodkie i słodkie. Mogą to być wina musujące lub niemusujące. Wino składa się z wody (75%–90%), etanolu, glicerolu, polisacharydów oraz różnych kwasów i związków fenolowych. Poza tym w winie znajdują się sole mineralne oraz witaminy. Łącznie zawiera ponad tysiąc substancji, nie wszystkie są dobrze poznane. Nie zawsze wyraz wino odnosi się do fermentowanego napoju pozyskanego z winogron, owoców winorośli właściwej. Istnieje wiele rozmaitych win wyprodukowanych z innych owoców, także tropikalnych. Nauką zajmującą się produkcją wina jest enologia. Czytaj więcej…
Inne artykuły na medal • Jak wybieramy najlepsze?
Dobry artykuł
Proj.183PL-1.jpg
KT-90 – polski kuter torpedowy z okresu zimnej wojny, jeden z dziewiętnastu pozyskanych przez Polskę radzieckich okrętów projektu 183. Jednostkę zbudowano w stoczni numer 5 w Leningradzie, a następnie została zakupiona przez Polskę. 25 czerwca 1957 roku jednostka została pod oznaczeniem KT-90 rozkazem Dowódcy Marynarki Wojennej nr 017/Org. przyjęta w skład Marynarki Wojennej, a następnego dnia po raz pierwszy podniesiono biało-czerwoną banderę. Okręt początkowo wchodził w skład Dywizjonu Kutrów Torpedowych stacjonując na Helu, zmieniając rok później bazę na Gdynię. Intensywnie eksploatowany okręt, oznaczony znakami burtowymi KT-90 i 417, został skreślony z listy floty w październiku 1973 roku. Czytaj więcej…
Inne dobre artykuły • Jak pisać w stylu encyklopedycznym?
Ilustracja na medal
Larus canus 2004 K ubt.jpeg
Mewy
Inne ilustracje na medal • Jak zilustrować artykuł?
Siostrzane projekty Wikipedii
Z nowych i ostatnio rozbudowanych artykułów w Wikipedii napisanych podczas tygodnia artykułu ugandyjskiego:
King Mwanga II Buganda.jpg
…dlaczego Mwanga II (na zdjęciu) musiał uciekać z kraju?
…który ugandyjski kompozytor nadaje fortepianowi brzmienie zbliżone do instrumentów afrykańskich?
…kto jest rekordzistą Afryki w długości skoku narciarskiego?
…że ugandyjski reżyser Robert Serumaga wdrażał teorię Grotowskiego?
…który bugandyjski polityk jest uważany za jednego z pierwszych afrykańskich historyków?
…gdzie odpowiednikiem króla jest kabaka?
…który władca Bugandy rozkazał stracić poddanych niechcących przyjąć islamu, a rok później tych, którzy obstawali przy islamie?
Propozycje do ekspozycji • Jak napisać nowy artykuł?
Wydarzenia
WTA Finals • Zmiana czasu
Fats DominoFats Domino
Regionalny parlament Katalonii ogłosił niepodległość Republiki Katalonii. Była to kontynuacja działań podejmowanych m.in. przy pomocy uchwały z 9 listopada 2015 oraz plebiscytu z 2017 roku. (27 października)
W wyborach do Izby Poselskiej Republiki Czeskiej zwyciężyła partia ANO 2011 (29,64% głosów). (21 października)
Zmarli: Vilnis Edvīns Bresis • Fats Domino (na zdjęciu) • Reinhold Durnthaler • Robert Guillaume • George Young
Więcej…
Rocznice
29 października: imieniny obchodzą m.in.: Wioleta, Felicjan i Zenobiusz
Okrągłe, pięcioletnie rocznice:
Stavovské divadlo w PradzeStavovské divadlo w Pradze
Stanisław OstrowskiStanisław Ostrowski
1787 – prapremiera opery Don Giovanni Mozarta w Gräflich Nostitzsches National-Theater w Pradze (na fotografii)
1822 – urodził się polski duchowny katolicki Mieczysław Halka-Ledóchowski, arcybiskup metropolita poznański i gnieźnieński, prymas Polski w latach 1866–1886, kardynał od 1875
1892 – urodził się Stanisław Ostrowski (na fotografii), profesor nauk medycznych, poseł na Sejm II RP, ostatni polski prezydent Lwowa, prezydent Rzeczypospolitej na uchodźstwie w latach 1972–1979
1957 – zmarł amerykański przedsiębiorca Louis B. Mayer, współzałożyciel wytwórni filmowej Metro-Goldwyn-Mayer
1967 – premiera filmowego musicalu Hair w reżyserii Miloša Formana
1972 – zmarł polski prawnik Paweł Kempka, współtwórca ustroju prawnego Autonomii Śląskiej
1997 – zmarł amerykański satanista Anton LaVey, twórca myśli filozoficznej satanizmu laveyańskiego, którą wyłożył w swej publikacji Biblia Szatana
28 października • Kalendarium dzień po dniu • 30 października
Artykuł na medal
Red and white wine 12-2015.jpg
Wino – napój alkoholowy uzyskiwany w wyniku fermentacji moszczu winogronowego. Istnieje wiele rodzajów win, co związane jest z mnogością odmian winorośli, oddziaływaniem środowiska na ich wzrost i różnymi technikami winifikacji. Można wyróżnić wina białe, różowe oraz czerwone. Ze względu na zawartość cukru można je podzielić na wytrawne, półwytrawne, półsłodkie i słodkie. Mogą to być wina musujące lub niemusujące. Wino składa się z wody (75%–90%), etanolu, glicerolu, polisacharydów oraz różnych kwasów i związków fenolowych. Poza tym w winie znajdują się sole mineralne oraz witaminy. Łącznie zawiera ponad tysiąc substancji, nie wszystkie są dobrze poznane. Nie zawsze wyraz wino odnosi się do fermentowanego napoju pozyskanego z winogron, owoców winorośli właściwej. Istnieje wiele rozmaitych win wyprodukowanych z innych owoców, także tropikalnych. Nauką zajmującą się produkcją wina jest enologia. Czytaj więcej…
Inne artykuły na medal • Jak wybieramy najlepsze?
Dobry artykuł
Proj.183PL-1.jpg
KT-90 – polski kuter torpedowy z okresu zimnej wojny, jeden z dziewiętnastu pozyskanych przez Polskę radzieckich okrętów projektu 183. Jednostkę zbudowano w stoczni numer 5 w Leningradzie, a następnie została zakupiona przez Polskę. 25 czerwca 1957 roku jednostka została pod oznaczeniem KT-90 rozkazem Dowódcy Marynarki Wojennej nr 017/Org. przyjęta w skład Marynarki Wojennej, a następnego dnia po raz pierwszy podniesiono biało-czerwoną banderę. Okręt początkowo wchodził w skład Dywizjonu Kutrów Torpedowych stacjonując na Helu, zmieniając rok później bazę na Gdynię. Intensywnie eksploatowany okręt, oznaczony znakami burtowymi KT-90 i 417, został skreślony z listy floty w październiku 1973 roku. Czytaj więcej…
Inne dobre artykuły • Jak pisać w stylu encyklopedycznym?
Ilustracja na medal
Larus canus 2004 K ubt.jpeg
Mewy
Inne ilustracje na medal • Jak zilustrować artykuł?
Siostrzane projekty Wikipedii |
|
|
|
Geneza
Zgodnie z obecnym poglądem na powstawanie planet, ciała złożone w dużym stopniu z **** tworzą się w zewnętrznej części układu planetarnego, poza tzw. „linią śniegu”, gdzie mogą kondensować substancje lotne takie jak woda, tlenki węgla czy amoniak. Mogą one pozostać na dalekich orbitach; w naszym Układzie Słonecznym takimi planetami są Uran i Neptun, tzw. lodowe olbrzymy. Planety te posiadają znacznych rozmiarów pierwotne atmosfery wodorowo-helowe, których mogą być pozbawione przynajmniej niektóre planety krążące po ciaśniejszych orbitach.
Planeta może zmienić orbitę na skutek oddziaływania z innymi planetami lub dyskiem protoplanetarnym. Kiedy planeta przemieści się na orbitę bliższą gwiazdy, część lub całość **** może ulec stopieniu, tworząc planetę oceaniczną. Jeżeli planeta przekroczy wewnętrzną granicę ekosfery, w której ciekła woda może istnieć na powierzchni, oceany stopniowo wyparują, aczkolwiek aż do temperatury krytycznej wody (647 K=374 °C) gorący ocean może być w równowadze termodynamicznej z atmosferą przesyconą parą[1]. Znane są planety o masie Neptuna, w których przypadku najprawdopodobniej zaszedł taki proces; są to tzw. gorące neptuny.
Planety o masie nawet tak małej jak 0,1 masy Ziemi mogą zachować większość substancji lotnych (w tym wody) w całym okresie istnienia układu planetarnego, krążąc w odległości nie mniejszej niż 0,3 j.a. od gwiazdy podobnej do Słońca, jeżeli tylko ich migracja zajdzie po utworzeniu się planet skalistych i unikną wielkich impaktów. Planety o masie większej niż 10 mas Ziemi mogą zgromadzić znaczne ilości gazu z mgławicy wokół gwiazdy i stać się gazowymi olbrzymami[1].
W Układzie Słonecznym wokół planet-olbrzymów krążą liczne lodowe księżyce, spośród których część posiada globalne oceany ukryte pod lodową skorupą. W przypadku, gdy planeta posiadająca takie księżyce przemieści się do ekosfery (nie tracąc księżyców), czy to na skutek migracji, czy wzrostu jasności gwiazdy w miarę jej ewolucji, na skutek stopienia **** mogą powstać „księżyce oceaniczne”[2].
Charakterystyka
Diagram fazowy wody
Ocean pokrywający taką planetę może być znacznie głębszy niż oceany Ziemi i mieć nawet kilkaset kilometrów głębokości. Dno tego oceanu mogą stanowić skały, jeżeli większość wody jest w postaci ciekłej, lub lód o innej strukturze krystalicznej niż ten znany z życia codziennego. Pod wpływem wysokiego ciśnienia panującego na głębokości ponad kilkuset kilometrów woda krystalizuje, nawet w temperaturze kilkuset stopni Celsjusza. Spotykany zwykle na Ziemi lód Ih jest lżejszy od ciekłej wody i pływa po jej powierzchni, ale inne odmiany polimorficzne ****, jak lód VI czy lód VII (tzw. „gorący lód”), są od niej gęstsze. Płaszcz lodowy może mieć nawet kilka tysięcy kilometrów grubości, izolując skalne wnętrze od oceanu. W takich warunkach na jego dnie nie mogą istnieć kominy hydrotermalne, a przypuszcza się, że to w ich sąsiedztwie mogło powstać życie na Ziemi. Ewentualna obecność życia na planecie oceanicznej stałaby w sprzeczności z tą hipotezą powstania życia[3].
Na powierzchni planet oceanicznych nie ma lądów, które powstrzymywałyby ruch mas wody, z tego powodu mogą być one bardzo burzliwe. Jeżeli temperatura powierzchniowa jest bardzo wysoka, woda może stać się płynem nadkrytycznym. W takim przypadku nie istnieje granica między atmosferą przesyconą parą wodną, a oceanem.
Dzięki dużej pojemności cieplnej wody, planeta oceaniczna krążąca w ekosferze może posiadać łagodny klimat nawet w przypadku nachylenia osi obrotu sięgającego 90° (tj. gdy oś obrotu leży w płaszczyźnie orbity). W takim przypadku ocean gromadzi ciepło podczas dnia polarnego i oddaje je podczas nocy polarnej. Efekt ten występuje nawet dla oceanu o głębokości 50 m; płytsze wody powierzchniowe nie są już w stanie ochronić nieoświetlonej strony przed zamarznięciem i zlodowacenie ogarnia cały glob[4].
Kandydaci
Spośród poznanych dotąd planet można wskazać ciała, których rozmiary i położenie dopuszczają, aby były to planety oceaniczne. Planeta GJ 1214 b ma promień 2,7 razy większy od Ziemi, krąży blisko swojej gwiazdy i choć prawdopodobnie składa się w 75% z wody[5], to są to głównie wysokociśnieniowe odmiany **** i para. Woda w postaci cieczy, tworząca ocean, może potencjalnie istnieć na tej planecie dzięki wysokiemu ciśnieniu[6]. Dalsze obserwacje planety potwierdzają, że zawiera ona znaczne ilości wody i gęstą atmosferę, której głównym składnikiem jest para wodna[7].
Planeta Kepler-22b również może być ciałem tego typu, jeżeli ma odpowiednio małą rzeczywistą masę – ok. 10 M⊕. Jest ona podobna pod względem rozmiaru do GJ 1214 b, ale krąży w ekosferze swojej gwiazdy i jeżeli występuje na niej efekt cieplarniany podobny do ziemskiego, ma średnią temperaturę 22 °C. W takim przypadku może pokrywać ją ocean skryty pod gęstą warstwą chmur, bez żadnego kontynentu na powierzchni[8].
Kepler-62e i Kepler-62f, odkryte przez teleskop Keplera w 2013 roku, są najprawdopodobniej planetami oceanicznymi. Ocean na drugiej z nich może być pokryty lodem morskim z powodu niskiej temperatury, o ile nie występuje tam silny efekt cieplarniany[9].
Jako kandydatka na planetę oceaniczną byłą wymieniana także planeta Gliese 581 d[10], jednak nowe analizy systemu Gliese 581 przeczą jej istnieniu.
W fantastyce naukowej
Planety pokryte całkowicie lub w znacznym stopniu oceanem są motywem obecnym w literaturze, filmach i grach komputerowych z gatunku science-fiction. Do znanych przykładów należą:
Kamino w filmie Gwiezdne wojny: część II – Atak klonów w reż. George\'a Lucasa.
Manaan w grze Star Wars: Knights of the Old Republic wydanej przez studio LucasArts.
Solaris w powieści Solaris Stanisława Lema (pokryta oceanem-formą życia, a nie wodą).
Thalassa w powieści Pieśni dalekiej Ziemi Arthura C. Clarke\'a, skolonizowana w XXVIII wieku przez Ziemian, tworzących utopijną społeczność.
Mare Infinitum pojawiająca się w cyklu Pieśni Hyperiona Dana Simmonsa.
Hydros w powieści Oblicza wód Roberta Silverberga, której mieszkańcy żyją na sztucznych pływających wyspach.
Ziemia po stopieniu czap lodowych w filmie Wodny świat w reż. Kevina Costnera (w rzeczywistości nie zawierają one dość wody, aby ta wizja była realna[11]).
Wenus w Ostatnich i pierwszych ludziach Olafa Stapledona. Mieszkańcami planety są półinteligentne istoty morskie „żywiące się” energią atomową, eksterminowane by zrobić miejsce dla ludzkich kolonistów (przekształconych w latających Siódmych Ludzi).
Planeta Miller w filmie Interstellar w reż. Christopera Nolana. Według filmu bliskość czarnej dziury powoduje istnienie ponadkilometrowych fal.
Alfa, planeta układu alfy Centauri, w powieści Fundacja i Ziemia Isaaca Asimova. Na oceanie Alfy istnieje jedna wyspa, długa na 250 km i szeroka na 65 km, na której osiedlają się uciekinierzy z ginącej Ziemi.
W grze komputerowej Sins of a Solar Empire (z dodatkiem Forbidden Worlds), a także Endless Space, możliwa jest kolonizacja planet oceanicznych po uprzednim rozwinięciu odpowiedniej technologii.
Przypisy
Marc J. Kuchner. Volatile-rich Earth-Mass Planets in the Habitable Zone. „Astrophysical Journal”, 2003.
Darren M. Williams, James F. Kasting, Richard A. Wade. Habitable moons around extrasolar giant planets. „Nature”. 385, s. 234-236, 1997-01-16. DOI: 10.1038/385234a0.
Alain Léger. A New Family of Planets? \"Ocean Planets\". „Icarus”. 169 (2), s. 499-504, 2003.
Jennifer Chu: Life on an aquaplanet. Massachusetts Institute of Technology, 2014-12-17. [dostęp 2015-02-28].
Waterworld planet is more Earth-like than any discovered before. guardian.co.uk, 2009-12-16. Artykuł błędnie ocenia głębokość potencjalnego oceanu.
L.A. Rogers, S. Seager. Three Possible Origins for the Gas Layer on GJ 1214b. „The Astrophysical Journal”, 2009-12-16.
Hubble Reveals a New Class of Extrasolar Planet. ESA, 2012-02-21. [dostęp 2017-09-05].
Abel Mendez Torres: Updates on Exoplanets during the First Kepler Science Conference. Planetary Habitability Laboratory, na Uniwersytecie Portorykańskim w Arecibo, 2011-12-08.
Water worlds surface: Planets covered by global ocean with no land in sight. Harvard Gazette, 2013-04-18. [dostęp 2013-10-24].
First \"serious candidate\" for ocean planet. „Cosmos Magazine”, 2009-04-22. [zarchiwizowane z adresu].
\"What If All the Ice Melts?\" Myths and Realities
Zobacz też
planeta skalista |
|
|
|
Geneza
Zgodnie z obecnym poglądem na powstawanie planet, ciała złożone w dużym stopniu z **** tworzą się w zewnętrznej części układu planetarnego, poza tzw. „linią śniegu”, gdzie mogą kondensować substancje lotne takie jak woda, tlenki węgla czy amoniak. Mogą one pozostać na dalekich orbitach; w naszym Układzie Słonecznym takimi planetami są Uran i Neptun, tzw. lodowe olbrzymy. Planety te posiadają znacznych rozmiarów pierwotne atmosfery wodorowo-helowe, których mogą być pozbawione przynajmniej niektóre planety krążące po ciaśniejszych orbitach.
Planeta może zmienić orbitę na skutek oddziaływania z innymi planetami lub dyskiem protoplanetarnym. Kiedy planeta przemieści się na orbitę bliższą gwiazdy, część lub całość **** może ulec stopieniu, tworząc planetę oceaniczną. Jeżeli planeta przekroczy wewnętrzną granicę ekosfery, w której ciekła woda może istnieć na powierzchni, oceany stopniowo wyparują, aczkolwiek aż do temperatury krytycznej wody (647 K=374 °C) gorący ocean może być w równowadze termodynamicznej z atmosferą przesyconą parą[1]. Znane są planety o masie Neptuna, w których przypadku najprawdopodobniej zaszedł taki proces; są to tzw. gorące neptuny.
Planety o masie nawet tak małej jak 0,1 masy Ziemi mogą zachować większość substancji lotnych (w tym wody) w całym okresie istnienia układu planetarnego, krążąc w odległości nie mniejszej niż 0,3 j.a. od gwiazdy podobnej do Słońca, jeżeli tylko ich migracja zajdzie po utworzeniu się planet skalistych i unikną wielkich impaktów. Planety o masie większej niż 10 mas Ziemi mogą zgromadzić znaczne ilości gazu z mgławicy wokół gwiazdy i stać się gazowymi olbrzymami[1].
W Układzie Słonecznym wokół planet-olbrzymów krążą liczne lodowe księżyce, spośród których część posiada globalne oceany ukryte pod lodową skorupą. W przypadku, gdy planeta posiadająca takie księżyce przemieści się do ekosfery (nie tracąc księżyców), czy to na skutek migracji, czy wzrostu jasności gwiazdy w miarę jej ewolucji, na skutek stopienia **** mogą powstać „księżyce oceaniczne”[2].
Charakterystyka
Diagram fazowy wody
Ocean pokrywający taką planetę może być znacznie głębszy niż oceany Ziemi i mieć nawet kilkaset kilometrów głębokości. Dno tego oceanu mogą stanowić skały, jeżeli większość wody jest w postaci ciekłej, lub lód o innej strukturze krystalicznej niż ten znany z życia codziennego. Pod wpływem wysokiego ciśnienia panującego na głębokości ponad kilkuset kilometrów woda krystalizuje, nawet w temperaturze kilkuset stopni Celsjusza. Spotykany zwykle na Ziemi lód Ih jest lżejszy od ciekłej wody i pływa po jej powierzchni, ale inne odmiany polimorficzne ****, jak lód VI czy lód VII (tzw. „gorący lód”), są od niej gęstsze. Płaszcz lodowy może mieć nawet kilka tysięcy kilometrów grubości, izolując skalne wnętrze od oceanu. W takich warunkach na jego dnie nie mogą istnieć kominy hydrotermalne, a przypuszcza się, że to w ich sąsiedztwie mogło powstać życie na Ziemi. Ewentualna obecność życia na planecie oceanicznej stałaby w sprzeczności z tą hipotezą powstania życia[3].
Na powierzchni planet oceanicznych nie ma lądów, które powstrzymywałyby ruch mas wody, z tego powodu mogą być one bardzo burzliwe. Jeżeli temperatura powierzchniowa jest bardzo wysoka, woda może stać się płynem nadkrytycznym. W takim przypadku nie istnieje granica między atmosferą przesyconą parą wodną, a oceanem.
Dzięki dużej pojemności cieplnej wody, planeta oceaniczna krążąca w ekosferze może posiadać łagodny klimat nawet w przypadku nachylenia osi obrotu sięgającego 90° (tj. gdy oś obrotu leży w płaszczyźnie orbity). W takim przypadku ocean gromadzi ciepło podczas dnia polarnego i oddaje je podczas nocy polarnej. Efekt ten występuje nawet dla oceanu o głębokości 50 m; płytsze wody powierzchniowe nie są już w stanie ochronić nieoświetlonej strony przed zamarznięciem i zlodowacenie ogarnia cały glob[4].
Kandydaci
Spośród poznanych dotąd planet można wskazać ciała, których rozmiary i położenie dopuszczają, aby były to planety oceaniczne. Planeta GJ 1214 b ma promień 2,7 razy większy od Ziemi, krąży blisko swojej gwiazdy i choć prawdopodobnie składa się w 75% z wody[5], to są to głównie wysokociśnieniowe odmiany **** i para. Woda w postaci cieczy, tworząca ocean, może potencjalnie istnieć na tej planecie dzięki wysokiemu ciśnieniu[6]. Dalsze obserwacje planety potwierdzają, że zawiera ona znaczne ilości wody i gęstą atmosferę, której głównym składnikiem jest para wodna[7].
Planeta Kepler-22b również może być ciałem tego typu, jeżeli ma odpowiednio małą rzeczywistą masę – ok. 10 M⊕. Jest ona podobna pod względem rozmiaru do GJ 1214 b, ale krąży w ekosferze swojej gwiazdy i jeżeli występuje na niej efekt cieplarniany podobny do ziemskiego, ma średnią temperaturę 22 °C. W takim przypadku może pokrywać ją ocean skryty pod gęstą warstwą chmur, bez żadnego kontynentu na powierzchni[8].
Kepler-62e i Kepler-62f, odkryte przez teleskop Keplera w 2013 roku, są najprawdopodobniej planetami oceanicznymi. Ocean na drugiej z nich może być pokryty lodem morskim z powodu niskiej temperatury, o ile nie występuje tam silny efekt cieplarniany[9].
Jako kandydatka na planetę oceaniczną byłą wymieniana także planeta Gliese 581 d[10], jednak nowe analizy systemu Gliese 581 przeczą jej istnieniu.
W fantastyce naukowej
Planety pokryte całkowicie lub w znacznym stopniu oceanem są motywem obecnym w literaturze, filmach i grach komputerowych z gatunku science-fiction. Do znanych przykładów należą:
Kamino w filmie Gwiezdne wojny: część II – Atak klonów w reż. George\'a Lucasa.
Manaan w grze Star Wars: Knights of the Old Republic wydanej przez studio LucasArts.
Solaris w powieści Solaris Stanisława Lema (pokryta oceanem-formą życia, a nie wodą).
Thalassa w powieści Pieśni dalekiej Ziemi Arthura C. Clarke\'a, skolonizowana w XXVIII wieku przez Ziemian, tworzących utopijną społeczność.
Mare Infinitum pojawiająca się w cyklu Pieśni Hyperiona Dana Simmonsa.
Hydros w powieści Oblicza wód Roberta Silverberga, której mieszkańcy żyją na sztucznych pływających wyspach.
Ziemia po stopieniu czap lodowych w filmie Wodny świat w reż. Kevina Costnera (w rzeczywistości nie zawierają one dość wody, aby ta wizja była realna[11]).
Wenus w Ostatnich i pierwszych ludziach Olafa Stapledona. Mieszkańcami planety są półinteligentne istoty morskie „żywiące się” energią atomową, eksterminowane by zrobić miejsce dla ludzkich kolonistów (przekształconych w latających Siódmych Ludzi).
Planeta Miller w filmie Interstellar w reż. Christopera Nolana. Według filmu bliskość czarnej dziury powoduje istnienie ponadkilometrowych fal.
Alfa, planeta układu alfy Centauri, w powieści Fundacja i Ziemia Isaaca Asimova. Na oceanie Alfy istnieje jedna wyspa, długa na 250 km i szeroka na 65 km, na której osiedlają się uciekinierzy z ginącej Ziemi.
W grze komputerowej Sins of a Solar Empire (z dodatkiem Forbidden Worlds), a także Endless Space, możliwa jest kolonizacja planet oceanicznych po uprzednim rozwinięciu odpowiedniej technologii.
Przypisy
Marc J. Kuchner. Volatile-rich Earth-Mass Planets in the Habitable Zone. „Astrophysical Journal”, 2003.
Darren M. Williams, James F. Kasting, Richard A. Wade. Habitable moons around extrasolar giant planets. „Nature”. 385, s. 234-236, 1997-01-16. DOI: 10.1038/385234a0.
Alain Léger. A New Family of Planets? \"Ocean Planets\". „Icarus”. 169 (2), s. 499-504, 2003.
Jennifer Chu: Life on an aquaplanet. Massachusetts Institute of Technology, 2014-12-17. [dostęp 2015-02-28].
Waterworld planet is more Earth-like than any discovered before. guardian.co.uk, 2009-12-16. Artykuł błędnie ocenia głębokość potencjalnego oceanu.
L.A. Rogers, S. Seager. Three Possible Origins for the Gas Layer on GJ 1214b. „The Astrophysical Journal”, 2009-12-16.
Hubble Reveals a New Class of Extrasolar Planet. ESA, 2012-02-21. [dostęp 2017-09-05].
Abel Mendez Torres: Updates on Exoplanets during the First Kepler Science Conference. Planetary Habitability Laboratory, na Uniwersytecie Portorykańskim w Arecibo, 2011-12-08.
Water worlds surface: Planets covered by global ocean with no land in sight. Harvard Gazette, 2013-04-18. [dostęp 2013-10-24].
First \"serious candidate\" for ocean planet. „Cosmos Magazine”, 2009-04-22. [zarchiwizowane z adresu].
\"What If All the Ice Melts?\" Myths and Realities
Zobacz też
planeta skalista |
|
|
|
jestem osoba ceniącą profesjonalizm, tak właśnie zostałem potraktowany.
Po przeczytaniu większości opinii bylem zażenowany, bałem sie o transakcje ktora nie byla mala, a jeszcze mialem wymagajacego klienta(ponad 55m2) jednak jestem bardzo mile zaskoczony.
Młoda kulturalna obsługa w sklepie gdzie skladałem zamowienie, dodatkowo tanio i w miare szybki termin realizacji |
|
|
|
Dzień Dobry. Gdyby ktoś chciał kupić dług wobec właściciela firmy Kamyczek i skompensować należność za towar to zapraszamy do kontaktu: [email protected] |
|
|
|
dstalam towar ponad 5 msc temu i wszystko doszlo do mnie w idealnym stanie, wszystko ladnie lezy i jestem bardzo zadowolona, kontakt i obsluga w porzadku. polecam ps. dziwia ,mnie negatywne opinie |
|
|
|
po przeczytaniu opini przeraziłam sie i nie chcialam zamowic u nich towaru mój mąz jednak przekonał mnie jak sadził ZAOSZCZEDZIMY i miał racje mimo negartywnego podejscia do zakpu plytek musze przyznac ze jestem bardzo zadowolona obsługa bardzo przyjemna transport szybki plytki w dobrej jakosci pieknie wygladaja na elewacji :)
nie wiem jak u innych u nas przebiegło wszystko sprawnie bez problemu najmniejszego osobiscie moge polecic |
|
|
|
A moze zrobić program o tej firmie jak oszukują ludzi i pracowników napewno chętnie znajda sie oszukani pracownicy i opiszą jak pani Iwona pracuje i jakie robi przekręty |
|
|
|
Przestrzegam wszystkich którzy chcą zakupić towar przez ta firmę bardzo długo sie czeka na kamien właściciele sa nie mili i powiedzą wszystko aby tylko ludzi naciągnąć towar dostaje sie zniszczony i mokry nie zapakowany profesjonalnie jeśli będziecie chcieli oddać możecie sie pożegnać ze dostaniecie swoje pieniądze spowrotem poczytajcie wszystkie opinie na różnych stronach dowiecie sie ile osób zostało pokrzywdzonych nie tylko klienci również pracownicy mam nadzieje ze krzywda ludzka kiedyś wyjdzie im bokiem i jeszcze dzieci i wnuki bedą spłacać długi . |
|
|
|
Przestrzegam wszystkich którzy chcą zakupić towar przez ta firmę bardzo długo sie czeka na kamien właściciele sa nie mili i powiedzą wszystko aby tylko ludzi naciągnąć towar dostaje sie zniszczony i mokry nie zapakowany profesjonalnie jeśli będziecie chcieli oddać możecie sie pożegnać ze dostaniecie swoje pieniądze spowrotem poczytajcie wszystkie opinie na różnych stronach dowiecie sie ile osób zostało pokrzywdzonych nie tylko klienci również pracownicy mam nadzieje ze krzywda ludzka kiedyś wyjdzie im bokiem i jeszcze dzieci i wnuki bedą spłacać długi . |
|
|
|
To co już pani wyprawia to już przesada skoro nie chce pani oddać mi pieniedzy jestem zmuszona sprawę oddać do sądu o nakaz wypłaty pieniedzy oczywiście z odsetkami czym dłużej pani to ciągnie będzie więcej do oddania dalej pani nie raczy odbierać tel niech wszyscy to czytają .Nie polecam zakupu przez ta firmę |
|
|
|
Napewno pani to czyta proszę oddać moje pieniądze czekam od kwietnia nawet nie raczy pani odebrać tel skora pani pisze na swoich stronach tak dobrze o swojej firmie to nie rozumiem dlaczego ma pani problem aby zwrócić moje pieniądze |
|
|
|
Ta firma jest w rankingu najgorszych firm nawet komornicy chcą sprzedać dług jaki maja właścicielka zachowuje sie gorzej jak dziecko w piaskownicy opinie pozytywne maja wystawione przez siebie bo jak sie czyta mdli a negatywne sa usuwane z jednej strony która maja. |
|
|
|
Opisze w skrócie moja przygodę z panią Iwona zamówiłam kamien na początku marca po kilku tel dostałam niby kamien na początku kwietnia to co zobaczyłam była tragedia towar był na palecie owinięty folia luzem i połamane wręcz gruz mokry odesłałam tego samego dnia zrezygnowałam z zamówienia i od kwietnia czekam na pieniądze a mamy już czerwiec pani Iwona ciagle mówi ze dostanę gada głupoty o księgowej o tym ze to trwa bo kamien musi do niej wrócić wiem ze dawno wrócił lecz bez skutku dzwonię bo nie raczy odebrać tel czy ktoś miał taka sytuacje bo na policję idę ze zdjęciami i papierami które mam dlaczego ta firma jeszcze istnieje nie można tak oszukiwać co za człowiek z tej kobiety |
|
|
Dyskusja:
Opinia: |
Pozytywna
|
Autor: Ewa
|
344107 |
Kurier to raczej nie przepakowal mi przesyłki jak moze być wysłany kamien luzem ty chyba nie wiesz co piszesz sprzedają taka lipę ze szkoda nawet o tym pisać oszuści i kłamcy najgorsza firma jakby nic nie mieli do ukrycia to odbieraliby tel a nie zakładali nowe konta pod kimś innym i innym nr tel i pan mąż odbiera i tez kłamie.i tak odzyskam pieniądze w sądzie wraz z odsetkami |
|
Opinia: |
Pozytywna
|
Autor: Jan
|
344034 |
Też zakupowałem kamień i było uszkodzone kilka kartonów lecz otrzymałem dosyłkę,wydaje mi się że problemem jest kurier nie raz jak widze co wyprawiają z paczkami to głowa mała a ich towar jest delikatny i wilgotny |
|
|
|
Ta firma to oszuści nie polecam kupna pani właścicielka nie zwraca pieniedzy i przeciąga sprawę nie rozumiem tej kobiety i tak będzie musiała oddać pieniądze dla niej lepiej byłoby od razu bo po sprawie w sądzie bedą już odsetki a jak to wszystko ruszy to nie będzie jej stać na utrzymanie firmy szkoda mi ludzi którzy tam pracują a opinie pozytywne wystawiają sobie sami |
|
|
|
Jeśli ktoś to przeczyta odradzam prace i zakup towaru sa to oszuści i kłamcy zakupiłam kamień po miesiącu dostałam gruz oczywiście nie przyjęłam bo mokrym gruzem ciężko zrobić sciane teraz czekam na zwrot pieniędzy lecz co dzwonię to firmy słyszę ze już będą wypłacane mija prawie miesiąc i dalej nie ma firma powinna zostać zlikwidowana za oszustwa jak można tak traktować klijentow najgorsza firma na świecie i produkty tez |
|
|
|
Potwierdzam wszystkie negatywne opinie!
Samą zainteresowaną zachęcam do spłaty długów |
|
|
|
złodziejka i oszustka 3 miesiąc czekam z kumplem na pieniądze zakładam jej sprawę w sądzie niech ma mobbing w pracy a towar okropny pracowałem tam ostrzegam przed kupnem tego "******" robione na szybko nie starannie. |
|
|
Dyskusja:
Opinia: |
Pozytywna
|
Autor: Mirek
|
376990 |
Sory kolego a ty czemu szmaty tak bronisz ile tam tak pracowałeś bo ja troche czasu pracowalem i znam ja ją i jej faceta radka jest oszustkom i kretaczkom |
|
Opinia: |
Pozytywna
|
Autor: nieznajomy01
|
329604 |
ty marcin niby tak jom znasz ja czekam pol roku na szmal za polowe miesiecy pracy jest oszustkom i bajer ma ale sie w dupila teraz zobaczymy jak jej sie dobiorom do **** hahaha |
|
Opinia: |
Pozytywna
|
Autor: Marcin
|
325748 |
Odpierdol się od niej,co ty możesz powiedzieć po jednym dniu i tak cię łagodnie potraktowała opisujesz produkt właśnie dla tego wyleciałeś bo ****** robiłeś |
|
|
|
Woda jest cieczą bezbarwną, bezwonną, bez smaku, w grubych warstwach przyjmuje niebieskawe zabarwienia. Gęstość wody zmienia się wraz z temperaturą, jednak w pobliżu temperatury krzepnięcia zmiana ta przebiega inaczej niż u innych cieczy. Od 0o C aż do 4o C gęstość wody, zamiast maleć, wzrasta i zmniejsza się dopiero powyżej tej temperatury. Zatem w zimie temperatura wody w dolnych warstwach głębszych zbiorników nie spada poniżej 4o C, co ma ogromne znaczenie dla życia organizmów wodnych. Woda, krzepnąc, zwiększa swoją objętość. Ma to wpływ na kruszenie się skał i powstawanie gleby.
Woda jest doskonałym rozpuszczalnikiem różnych substancji. Z tego też powodu wszystkie występujące naturalnie wody to mniej lub bardziej stężone roztwory. Aby otrzymać czystą wodę, należy ją przedestylować. Wodę destylowaną stosujemy np. w przemyśle farmaceutycznym i do akumulatorów samochodowych.
Woda charakteryzuje się wysokimi wartościami pewnych stałych fizycznych. Przede wszystkim ma bardzo wysokie ciepło właściwe. Aby podnieść temperaturę 1 grama wody o 1 stopień, trzeba 1 kalorii. Bardzo wysokie jest też jej ciepło parowania. Do zamiany 1 g wrzącej wody w parę potrzeba około 540 kalorii. Jest to ponad dwa razy więcej, niż wynoszą te stałe dla alkoholu etylowego. Ze względu na dużą wartość ciepła. To tłumaczy wpływ mórz i oceanów, a także prądów morskich na klimat. Ciepło zgromadzone w lecie jest następnie oddawane zimą. Dlatego też wybrzeża oceanów mają znacznie łagodniejszy klimat niż rejony w głębi kontynentów. Położone na tej samej szerokości geograficznej. |
|
|
|
Masa wody w przyrodzie znajduje się w równowadze dynamicznej. Pod wpływem ciepła słonecznego powierzchnia mórz i oceanów nieustannie paruje. Woda zmienia stan skupienia i masy pary wodnej mieszają się z powietrzem. Przy dostatecznie dużej wilgotności powietrza i obecności tzw. jąder kondesacji następuje skraplanie pary wodnej do postaci drobniutkich kropelek, które grupują się w widoczne skupienia- chmury. W wyniku ochładzania na niewielkich wysokościach powietrza zawierającego parę wodną powstają mgły. Chmury, niesione wiatrem, przemieszczają się nad powierzchnią lądów, mórz i oceanów. W określonych warunkach drobniutkie kropelki łącza się ze sobą w większe krople i opadają jako deszcz, śnieg lub grad. Ziemia wchłania opady atmosferyczne i gromadzi je
w postaci wód gruntowych. W niektórych miejscach wody gruntowe wydostają się na powierzchnię i tak powstają źródła. Z nich biorą początek strumyki, te z kolei łączą się ze sobą w większe strumienie i rzeki, które wpadają do morza lub oceanu. W ten sposób zamyka się obieg wody w przyrodzie.
Woda jest cieczą bezbarwną, bezwonną, bez smaku, w grubych warstwach przyjmuje niebieskawe zabarwienia. Gęstość wody zmienia się wraz z temperaturą, jednak w pobliżu temperatury krzepnięcia zmiana ta przebiega inaczej niż u innych cieczy. Od 0o C aż do 4o C gęstość wody, zamiast maleć, wzrasta i zmniejsza się dopiero powyżej tej temperatury. Zatem w zimie temperatura wody w dolnych warstwach głębszych zbiorników nie spada poniżej 4o C, co ma ogromne znaczenie dla życia organizmów wodnych. Woda, krzepnąc, zwiększa swoją objętość. Ma to wpływ na kruszenie się skał i powstawanie gleby. |
|
|
|
Jam antikvaj egiptoj uzis specon de dentopasto farita el muelita pumiko kaj vina vinagro. Romianoj uzis tiucele urinon. Dum longa tempo oni uzis dentopulvoron el kreto. Antaŭulo de la dentopasto, la dentosapo estis kreita de la saksa apotekisto Adolf Heinrich August Bergmann en la jaro 1852.
La moderna dentopasto estis kreita en 1907 de la dresdena apotekisto Ottmar Heinsius von Mayenburg, kiu tamen ankoraŭ ne enhavis ŝaŭmigilojn. Sub la nomo Chlorodont tiu dentopasto famiĝis tra la mondo. Ĝiaj efikigiloj estis pumika pulvoro, kalcia karbonato, sapo, glicerino kaj kalia klorato. La nomo devenis de la greka chloros (helverda, kaj simbolo freŝa) kaj de odon (dento) |
|
|
|
Prima referință la pasta de dinți vine din Egipt unde un manuscris din secolul patru AD recomanda o amestecătură de sare, piper, frunze de mentă, și flori de iris. În Roma antică se considera că urina umană este un agent de curățare a dinților foarte bun.[1]
Totuși, pasta de dinți și pudra pentru dinți nu au fost folosite prea mult până în secolul al XIX-lea în Marea Britanie. Pe la începutul anilor 1800 periuța de dinți se folosea numai ** apă, dar la scurt timp pudrele pentru dinți au devenit populare[2]. Multe erau făcute în casă, ** cretă, cărămidă pulverizată și sare. O enciclopedie din anul 1866 recomanda o pudră pentru dinți fabricată din cărbune pulverizat, dar în același timp avertiza că pudrele pentru dinți ce se comercializau făceau mai mult rău decât bine.
Până în anul 1900, o pastă de dinți făcută din apă oxigenată și praf de copt (bicarborat de sodiu) a devenit combinația recomandată. Pastele de dinți pre-amestecate au fost prima oară fabricate în secolul al XIX-lea dar nu au întrecut în popularitate pudra pentru dinți înaintea primului război mondial. În anul 1896 în New York, compania Colgate a făcut prima pastă de dinți în tuburi deformabile similare ** cele folosite pentru acuarele.
Fluoruri au fost adăugate în pasta de dinți în anul 1914 și a fost criticat de Asociația Dentală Americană (ADA) în 1937. În anii \'50, noile paste ** fluor au primit însă aprobarea de la ADA. Limitele acceptabile și cantitățile sugerate de fluor în pasta de dinți diferă în fiecare țară.
Înaintea celui de-al doilea război mondial pasta de dinți se vindea în containere din plumb. Chiar dacă acestea erau cerate, plumbul se amesteca ** pasta de dinți, cauzând boli și decese. După al doilea război mondial, pasta de dinți se comercializa în containere de plastic. Lucrul rău a fost că, deoarece toți membrii familiei foloseau pasta de dinți împreună ** aceeași periuță și se puteau transmite boli.
Pasta de dinți se comercializează de obicei în tuburi flexibile, deși containere mai rigide sunt disponibile (acestea având avantajul că, putând sta vertical, folosesc mai puțin spațiu). |
|
|
|
Pierwsza pasta do zębów w tubce została sprzedana w roku 1896 przez firmę \"Colgate & Company\". W masowej sprzedaży dotychczasowe słoiki, w których sprzedawane były pasty, zostały zastąpione tubkami przez \"Colgate & Company\" w roku 1908[2].
Niektóre pasty do zębów po wyciśnięciu z tubki zawierają więcej niż jeden kolor. Początkowo był to chwyt reklamowy stosowany przez producentów, jednak takie rozwiązanie ma również swoje zalety, ponieważ można wówczas użyć w paście większą ilość czynnych składników, których nie dałoby się umieścić razem z uwagi na możliwość reakcji chemicznej pomiędzy nimi. W takim przypadku tubka pasty do zębów jest odpowiednio skonstruowana tak, że jej wnętrze posiada pojemniki oddzielone od siebie. Mieszanie pasty następuje dopiero przy jej wyciskaniu. |
|
|
|
Skład pasty do zębów
Współczesna pasta do zębów
Pasta do zębów pod mikroskopem (powiększenie 100x, 200x, 400x i 600x)
środki abrazyjne (ścierne, polerujące):
np. krzemionka koloidalna
środki żelujące (zagęstniki) - decydują o konsystencji
środki pieniące (mydła, detergenty); przykładowe detergenty:
laurosiarczan sodu, laurosarkozynian sodu
substancje smakowo-zapachowe, np. mentol
substancje przeciwbakteryjne i przeciwgrzybiczne
substancje biologicznie czynne (przeciwpróchnicze), działające na:
tkanki twarde zęba - szczególnie na nadwrażliwość zębów
związki fluoru, hydroksyapatyty, cytrynian sodu, chlorek potasu
dziąsła i śluzówkę
zioła, witaminy, salicylan choliny, ksynitol, torf
płytkę i kamień nazębny
pirofosforan sodowy - zapobiega mineralizacji płytki nazębnej
oktapinol - zmniejsza odkładanie płytki nazębnej
glukuronian chlorheksydyny, triklosan - niszczą drobnoustroje
sanguinaryna
Fluor występuje w postaci następujących związków:
fluorek sodu
monofluorofosforan sodu
aminofluorki
fluorek cyny(II)
fluorek glinu
Jedynie aminofluorki są związkami organicznymi, pozostałe są nieorganiczne. Stare pasty zawierały tlenek magnezowy jako środek neutralizujący szkodliwe kwasy.
Zawarte w pastach związki fluoru działają przeciwpróchniczo, hamując rozwój enzymów wydzielanych przez bakterie przy zamianie węglowodanów na kwasy i zwiększając tym samym odporność szkliwa na działanie kwasów w jamie ustnej. Dodatkową cechą tych związków jest pogarszanie zdolności adhezyjnych powierzchni zęba w stosunku do bakterii (utrudnianie kolonizacji powierzchni zęba przez bakterie). Związki fluoru hamują demineralizację szkliwa, a nawet umożliwiają jego remineralizację[1]. |
|
|
|
Istnieje wiele klasyfikacji wapieni opartych na różnych kryteriach. Jedną z popularniejszych, stosowanych zarówno w Polsce jak i na świecie jest klasyfikacja oparta na pracach amerykańskiego petrografa R. Folka[1]. Wyróżnia ona następujące rodzaje wapieni:
mikryty – wapienie utworzone wyłącznie z mikrytowej masy podstawowej.
dismikryty – wapienie zawierające w obrębie masy podstawowej skupienia sparytu, które powstały w przestrzeniach utworzonych na skutek działalności organizmów żerujących w osadzie lub innych deformacji niezlityfikowanego osadu; bardzo rzadkie.
biomikryty i biosparyty – wapienie złożone z elementów szkieletu organizmów żywych (np. muszle, szkielety) spojonych odpowiednio mikrytem bądź sparytem.
oomikryty i oosparyty – wapienie złożone z ooidów spojonych odpowiednio mikrytem bądź sparytem.
pelmikryty i pelsparyty – wapienie złożone z drobnych agregatów mikrytowych (peloidów), niezależnie od ich genezy.
intramikryty i intrasparyty – wapienie złożone z intraklastów spojonych odpowiednio mikrytem bądź sparytem.
biolity – wapienie utworzone ze szczątków organizmów żywych zachowanych w pozycji przeżyciowej.
Inna klasyfikacja, oparta na wielkości składników ziarnistych, dzieli wapienie następująco:
kalcyrudyty – przeciętna wielkość składników wynosi powyżej 2 mm
kalkarenity – przeciętna wielkość składników wynosi 2-0,1 mm
kalcylutyty – przeciętna wielkość składników wynosi poniżej 0,1 mm
Stosując powyższą klasyfikację w nazwach skał słowo wapień zastępujemy odpowiednim terminem np. mówimy sparytowy kalcyrudyt organodetrytyczny a nie sparytowy kalcyrudytowy wapień organodetrytyczny.
W praktyce różne nazwy rodzajom wapieni nadaje się często zwyczajowo, według wyglądu, składu, wieku lub miejsca pochodzenia, np. wapień krystaliczny, wapień pelitowy, wapień krynoidowy, wapień koralowy (wapień rafowy), wapień numulitowy, wapień litotamniowy, wapień diploporowy, wapień oolitowy, wapień podstawowy, wapień cechsztyński, wapień dębnicki. |
|
|
|
Skały wapienne zawierają, oprócz kalcytu i kalcytu magnezowego, także znaczne ilości aragonitu. Z biegiem czasu minerały te ulegają przeobrażeniu w kalcyt o nieznacznej zawartości magnezu. Drobne domieszki mogą tworzyć: dolomit, kwarc, minerały ilaste, łyszczyki, epidot i in.
Ze względu na specyficzną (zależną od warunków) rozpuszczalność węglanu wapnia, pomimo swojej dość dużej wytrzymałości mechanicznej, wapień łatwo ulega wietrzeniu chemicznemu, prowadząc do powstania zjawisk krasowych:
CaCO3 + H2O + CO2 → Ca2+ + 2HCO
−
3
Wapienie pozbawione domieszek chemicznych są białe, jednak stosunkowo często mamy do czynienia z wapieniami zabarwionymi, które reprezentować mogą pełną gamę kolorów (biały, beżowy, jasnoszary, żółty, czerwony, brązowy, ciemnoszary, niebieskoszary, czarny). Główne składniki wapienia:
masa podstawowa zbudowana z mikrytu lub sparytu
składniki ziarniste (elementy szkieletowe organizmów, ooidy, onkoidy, intraklasty, grudki i gruzełki)
wapienne szczątki organizmów (bioklasty)
różnego rodzaju spoiwo
inne domieszki. Ich zawartość może być znikoma (wagowo), lecz mogą mieć zasadnicze znaczenie dla barwy skały (najczęściej na różowo, czerwono lub rdzawo zabarwiają wapień tlenki, Wodorotlenek żelaza(III) i inne związki żelaza, np. goethyt). |
|
|
|
Wapień może być stosowany w budownictwie na kilka sposobów:
jako materiał budulcowy (materiał budowlany konstrukcyjny lub ewentualnie izolacyjny), analogicznie do innych twardych skał. Zastosowanie takie było szczególnie stosowane w przeszłości do wznoszenia budowli kamiennych w rejonach występowania wapieni, niemniej znajduje zastosowanie również obecnie.
jako spoiwo budowlane. Możliwość takiego zastosowania wynika z dość łatwego sposobu wywołania odwracalnej reakcji chemicznej, którą przedstawia poniższy przebiega pod wpływem ciepła, wapień wypala się w wapiennikach.
Stary wapiennik niedaleko Tyńca
Osobny artykuł: wapno (spoiwo).
jako składnik innych materiałów (np. cementów) lub wypełniacz.
Wykorzystanie w budownictwie jest widoczne szczególnie na Wyżynie Krakowsko-Częstochowskiej, gdzie skały tej używano szczególnie często do budowy zarówno zamków (np. Ogrodzieniec), jak i zwykłych domów mieszkalnych. Wiele zabytków architektury lub ich fragmenty, np. Brama Floriańska i Maszkarony w Sukiennicach w Krakowie, a także zamki na szlaku Orlich Gniazd, zostały zbudowane z wapieni.
Wapienie pińczowskie, występujące w okolicach Pińczowa, wykorzystuje się również jako materiał rzeźbiarski[2].
W kamieniarstwie niektóre odmiany wapieni błędnie przyjęło się nazywać marmurem. |
|
|
|
Wapień może być stosowany w budownictwie na kilka sposobów:
jako materiał budulcowy (materiał budowlany konstrukcyjny lub ewentualnie izolacyjny), analogicznie do innych twardych skał. Zastosowanie takie było szczególnie stosowane w przeszłości do wznoszenia budowli kamiennych w rejonach występowania wapieni, niemniej znajduje zastosowanie również obecnie.
jako spoiwo budowlane. Możliwość takiego zastosowania wynika z dość łatwego sposobu wywołania odwracalnej reakcji chemicznej, którą przedstawia poniższy przebiega pod wpływem ciepła, wapień wypala się w wapiennikach.
Stary wapiennik niedaleko Tyńca
Osobny artykuł: wapno (spoiwo).
jako składnik innych materiałów (np. cementów) lub wypełniacz.
Wykorzystanie w budownictwie jest widoczne szczególnie na Wyżynie Krakowsko-Częstochowskiej, gdzie skały tej używano szczególnie często do budowy zarówno zamków (np. Ogrodzieniec), jak i zwykłych domów mieszkalnych. Wiele zabytków architektury lub ich fragmenty, np. Brama Floriańska i Maszkarony w Sukiennicach w Krakowie, a także zamki na szlaku Orlich Gniazd, zostały zbudowane z wapieni.
Wapienie pińczowskie, występujące w okolicach Pińczowa, wykorzystuje się również jako materiał rzeźbiarski[2].
W kamieniarstwie niektóre odmiany wapieni błędnie przyjęło się nazywać marmurem. |
|
|
|
Wapień może być stosowany w budownictwie na kilka sposobów:
jako materiał budulcowy (materiał budowlany konstrukcyjny lub ewentualnie izolacyjny), analogicznie do innych twardych skał. Zastosowanie takie było szczególnie stosowane w przeszłości do wznoszenia budowli kamiennych w rejonach występowania wapieni, niemniej znajduje zastosowanie również obecnie.
jako spoiwo budowlane. Możliwość takiego zastosowania wynika z dość łatwego sposobu wywołania odwracalnej reakcji chemicznej, którą przedstawia poniższy przebiega pod wpływem ciepła, wapień wypala się w wapiennikach.
Stary wapiennik niedaleko Tyńca
Osobny artykuł: wapno (spoiwo).
jako składnik innych materiałów (np. cementów) lub wypełniacz.
Wykorzystanie w budownictwie jest widoczne szczególnie na Wyżynie Krakowsko-Częstochowskiej, gdzie skały tej używano szczególnie często do budowy zarówno zamków (np. Ogrodzieniec), jak i zwykłych domów mieszkalnych. Wiele zabytków architektury lub ich fragmenty, np. Brama Floriańska i Maszkarony w Sukiennicach w Krakowie, a także zamki na szlaku Orlich Gniazd, zostały zbudowane z wapieni.
Wapienie pińczowskie, występujące w okolicach Pińczowa, wykorzystuje się również jako materiał rzeźbiarski[2].
W kamieniarstwie niektóre odmiany wapieni błędnie przyjęło się nazywać marmurem. |
|
|
|
Istnieje wiele klasyfikacji wapieni opartych na różnych kryteriach. Jedną z popularniejszych, stosowanych zarówno w Polsce jak i na świecie jest klasyfikacja oparta na pracach amerykańskiego petrografa R. Folka[1]. Wyróżnia ona następujące rodzaje wapieni:
mikryty – wapienie utworzone wyłącznie z mikrytowej masy podstawowej.
dismikryty – wapienie zawierające w obrębie masy podstawowej skupienia sparytu, które powstały w przestrzeniach utworzonych na skutek działalności organizmów żerujących w osadzie lub innych deformacji niezlityfikowanego osadu; bardzo rzadkie.
biomikryty i biosparyty – wapienie złożone z elementów szkieletu organizmów żywych (np. muszle, szkielety) spojonych odpowiednio mikrytem bądź sparytem.
oomikryty i oosparyty – wapienie złożone z ooidów spojonych odpowiednio mikrytem bądź sparytem.
pelmikryty i pelsparyty – wapienie złożone z drobnych agregatów mikrytowych (peloidów), niezależnie od ich genezy.
intramikryty i intrasparyty – wapienie złożone z intraklastów spojonych odpowiednio mikrytem bądź sparytem.
biolity – wapienie utworzone ze szczątków organizmów żywych zachowanych w pozycji przeżyciowej.
Inna klasyfikacja, oparta na wielkości składników ziarnistych, dzieli wapienie następująco:
kalcyrudyty – przeciętna wielkość składników wynosi powyżej 2 mm
kalkarenity – przeciętna wielkość składników wynosi 2-0,1 mm
kalcylutyty – przeciętna wielkość składników wynosi poniżej 0,1 mm
Stosując powyższą klasyfikację w nazwach skał słowo wapień zastępujemy odpowiednim terminem np. mówimy sparytowy kalcyrudyt organodetrytyczny a nie sparytowy kalcyrudytowy wapień organodetrytyczny.
W praktyce różne nazwy rodzajom wapieni nadaje się często zwyczajowo, według wyglądu, składu, wieku lub miejsca pochodzenia, np. wapień krystaliczny, wapień pelitowy, wapień krynoidowy, wapień koralowy (wapień rafowy), wapień numulitowy, wapień litotamniowy, wapień diploporowy, wapień oolitowy, wapień podstawowy, wapień cechsztyński, wapień dębnicki. |
|
|
|
Bolek i Lolek
Bolek i Lolek to bohaterowie jednej z najpopularniejszych polskich bajek o tym samym tytule. Cechą charakterystyczną tych bardzo sympatycznych braci jest to, że każda ich zabawa na świeżym powietrzu kończy się niesamowitą, zapadającą w pamięć przygodą. Bolek - ubrany w czerwone spodenki, żółtą bluzę, jest zdecydowanie wyższy i szczuplejszy od Lolka, którego możemy rozpoznać po fioletowych spodniach na szelkach i białym podkoszulku. W zapadających w pamięć przygodach towarzyszy im od czasu do czasu ich ulubiona koleżanka Tola, pomagając Bolkowi i Lolkowi w rozwiązywaniu różnych zagadek, na które napotykają nawet w różnych zakątkach świata.
Bohaterami bajki zatytułowanej Przygody kota Filemona są dwa koty, które zamieszkują wiejski domek, prowadzony przez Dziadka i Babcię. Pierwszy z nich, to Bonifacy. Rozleniwiony, doświadczony kot, który uwielbia wylegiwać się przy piecu. Drugi z nich - Filemon, to biały kotek, który jest niesłychanie ciekawski otaczającego go świata. Co chwila bombarduje Bonifacego nowymi pytaniami, czasami mocno go tym irytując. Na szczęście, jeśli tylko Filemon z racji swojej ciekawości znajdzie się w opresji, zawsze może liczyć na pomocną łapę swojego kolegi.Reksio to bez wątpienia nie tylko najsłynniejszy polski piesek, lecz także i najbardziej wszechstronny. Czy ktoś widział kiedyś jakiegoś poczciwego kundelka, który potrafiłby się wcielić aż w tyle różnych postaci i to z niezmiennym powodzeniem? Reksio bowiem, to nie tylko poczciwy psiak biegający wokół swojej budy, lecz również doskonały aktor, odważny wędrowiec, pomocny pielęgniarz, czy też nieustraszony ratownik. A to tylko jedne z nielicznych profesji, w które wciela się nasz mały, odważny piesek Reksio. |
|
|
|
Najwyższy czas żeby zabrać się za tą pseudo firmę KAMYCZEK . Takich należności finansowych ludzie Ci mają do zapłacenia swoim klientą wiele . Zróbmy nareszcie z nimi porządek.Naciagnęli wielu klientów a wiele spraw uszło im na sucho bo ludzią szkoda zdrowia szarpać się z kimś takim. Dziwię się że jeszcze ta firma funkcjonuje, że urząd skarbowy i sądy nie zrobiły z nimi porzadku. |
|
|
|
Szanowni Państwo,
Kancelaria Maximus wystawia na sprzedaż prawomocnie zasądzoną wierzytelność wobec Iwona Woźniak Przedsiębiorstwo Produkcyjno Handlowo Usługowe KAMYCZEK. Należność główna 6 118,57 zł, koszty procesu 1 279,00 zł plus odsetki.
Można w ten sposób skompensować należność wobec niniejszego przedsiębiorcy.
Kontakt: [email protected] |
|
|
|
Opiszę zaistniałą sytuację,wnioski wyciągnijcie Państwo sami.
Zakup i wpłata pieniędzy na allegro 30.06.2015 według zapewnień i umowy towar miał być u mnie 03.07.2015 (po trzech dniach) no niestety dojechał po 9 dniach !!! Remont odłożony w czasie,pracownikowi płacić trzeba za każdy dzień zwłoki (razem 400zł).
Kamień dojechał pod wskazany adres i na tym plusy się kończą... Płytki mokre,pakowane w kartony po pomidorach które rozpadały się w rękach,połamane i o 1m2 (30zł) mniej niż zapłaciłem.Okazało się jeszcze że jest inny wymiar płytki niż podany w aukcji na allegro, różnica 6cm !!! Musiałem przebudować zabudowę z K-G (200zł)bo odpady miałyby po 6cm a przy braku w dostawie i dodatkowo ponad 0,5m2 (30zł)płytek będących odpadem produkcyjnym (brzydki odlew o wymiarze z jednej strony 9cm z drugiej 11cm) nie wystarczyło by mi materiału na ukończenie remontu !!! Reklamacja złożona w tym samym dniu,przez dwa tygodnie żadnego odzewu wystawiłem na allegro komentarz neutralny a w odwecie dostałem negatywny z treścią że "pier.... głupoty " !!! Po założeniu sporu i postraszeniu Policją,sprzedawca wysyła do mnie ponownie zamówiony towar.Wszystko było by dobrze gdyby nie fakt że nie raczył mnie poinformować o tym i wysłał kuriera na adres zamieszkania (nie na jaki wcześniej podałem przy pierwszej wysyłce).Kurier dzwonił do mnie że stoi na osiedlu pod klatka i ma dla mnie 300kg kamienia na palecie !!! Odmówiłem przyjęcia towaru ze względu na brak miejsca na jego przechowanie oraz z braku informacji od sprzedającego o tej wysyłce.Równie dobrze mogła by to być pomyłka z jego strony i ponowienie wysyłki na adres z allegro.Może się mylę ale mógłby mnie oskarżyć o przywłaszczenie mienia.Po kontakcie ze sprzedawcą i opisie zaistniałej sytuacji jedyną odpowiedzią było pytanie kto teraz zapłaci za "ekspresową przesyłkę" (po 12 dniach) kurierowi?!?! Na tym kontakt z firmą się urwał.Reasumując,chciałem zaoszczędzić kupując tanio i zaoszczędziłem w porównaniu z marketem ok 250zł a straciłem 660zł dużo czasu i nerwów...
Czy warto handlować z tą firmą ??? Wniosek nasuwa się sam...
P.S. Dla zainteresowanych,posiadam zdjęcia towaru,opakowań jakie wysyła ta firma oraz korespondencję mejlową ze sprzedającym dla potwierdzenia wystawionej przeze mnie opinii. |
|
|
|
Z pełną odpowiedzialnością stwierdzam że jeszcze się z taką firmą nigdy nie spotkałem. Produkują taki XXXXX że to sie w głowie nie mieści.Byłem swiadkiem jaki to wyrób dostarczyli moim znajomym i byłem w szoku.Zakupione płytki były wrzucone do pudeł po ziemniakach czy pomidorach,płytki w duzej części połamane , wszystkie mokre jakby wyciagnięte z wody, kartony również mokre że nie można było ich normalnie przenieść bo się rozwalały. Ponadto wszystkie wygięte w łódkę, różnej grubości, gips porozlewany po zewnętrznych krawędziach, rogi poutrącane, brudne powierzchnie. Miały być białe a były szaro bure.Czegoś takiego to ja bym nawet w chlewie nie założył.To skandal żeby takie firmy istniały na rynku i nabijały ludzi w butelkę, może ktoś się tym kamyczkiem gipsowym zainteresuje i zlikwiduje ten bałagan. Czytałem wszystkie opinie na temat tej firmy i byłem przerażony że tylu ludzi zostało przez nich XXXXXXXXXX. |
|
|
|
Człowieku najpierw coś kup a potem wypisuj XXXXXXXX,wypowiadasz sie na temat na który nie masz zielonego pojecia.A może miałeś montowac te płytki dla tej pani ale to było dla cibie za trudne i sie przeraziłeś na stopień trudności.Wypisuj sobie te XXXXXXXX ile chcesz mi jest szkoda czasu na. |
|
|
Dyskusja:
Opinia: |
Pozytywna
|
Autor: oszukana
|
360319 |
Tak własnie- ja kupiłam u ciebie oszustko kupę gruzu w kartonach po kurczakach, bez faktury i paragonu więc nie p......, ze dla kogoś to duży stopień trudnosci w połozeniu gruzu na scianie,przeszłaś solidny kurs wyłudzania pieniędzy od klientów ale policja i urzad skarbowy dobiorą się wam do d....y. oddaj kasę ludziom bezszczelna włascicielko pożal się boże firmy kamyczek |
|
|
|
Boże co ta kobieta wypisuje!!!!Reklamacja i zwrot nie były powodem że w tych pudłach po pomidorach wrzucone byle jak były uszkodzone płytki i zgonione to na przewożnika, bo można by z nich wyciąć jeszcze mniejsze elementy.Ale fakt że przysłane płytki były mokre, jak się wzięło płytkę w rękę to się zaraz łamała,były powyginane w łódkę, były różnej grubości nie do ułożenia na ścianie. Zamki łączące były pozalewane gipsem, połowa płytek była ubrudzona czarnym smarem czy olejem.Zapłaciliśmy 495 zł.za całość a otrzymaliśmy zwrot 300 zł.Odesłaliśmy dhl na koszt tej pani a pani ta ich nie odebrała, dopero po interwencji odebrała i przez to płytki jeżdziły w tę i spowrotem a koszt zwrotu z winy tej kobiety wyniósł podobnież 1000zł.Pieniądze wysłaliśmy 31 grudnia 2014r.i nie otrzymaliśmy do tej pory żadnej faktury ani nawet paragonu. Omijajcie tą pseudo firmę szerokim łukiem |
|
|
|
Na początek może zacznijmy że nie Pan kupował u mnie kamień tylko Pana córka której opinia widnieje poniżej.To ja powinnam narobić rabanu bo telefonicznie próbuje Pan wyłudzić odemnie pieniądze odgrażając sie.
Zaczoł Pan skakać jak by Pan coś kupował a z Pana córką mam wszystko załatwiona tak jak należy.
Towar który przyszedł uszkodzony przez firmę kurierską mieliście mi odesłać z tego co wiem to koszt transportu został Panu córce wyliczony na kwotę 1000 zł a moja naiwność i litość pozwoliła abym to ja na swój koszt odebrała towar żeby Pana córka nie miała do zapłaty tak wysokiej kwoty.Zwrot pieniążków jaki otrzymała Pana córka został pomniejszony o koszt z nią uzgodniony.Informuję Pana że kwotę 190 zł nadałam Panu córce ale również wystąpiłam do spedycji aby wystąpili do Państwa o zapłatę kosztów jakie oni wam naliczyli za transport bo ja doszłam downiosku że nie warto litować się nad czyimiś kosztami i problemami,pomóc można ludziom a nie ... |
|
|
|
Wielkie oszustwo handlowe.Zamówiłem płytki 10 m2 które otrzymałem w pudełkach po warzywach ,mokre popękane poplamione i bez rachunku zgroza.Płytki rozpadały się w rękach, grubości różnorodne, zameczki pozalewane gipsem.Połowa z nich brudna poplamiona jakimś czarnym smarem.Zareklamowałem towar bo wogóle nie nadawał się do zamontowania. Wiele rozmów z właścicielką pseudo firmy która w sposób skandaliczny zachowywała się przez telefon, ponadto rozłączała sie w połowie rozmowy. W rezultacie odesłałem ten towar a właścicielka odesłała mi kwotę 300 zł.a 195 zatrzymała dla siebie.Nie wystawia faktur,czym to powinien zająć się urząd skarbowy. Oszukuje klienta ,oszukuje państwo, nie można tego tak zostawić. |
|
|
Dyskusja:
Opinia: |
Pozytywna
|
Autor: nieznajomy01
|
329617 |
spokojnie zajmie sie i nietylko skarbowka wezmom sie za oszustke i za oszusta a teraz sedzibe majom na kamienna droga 8 jakby ktos niewiedzial podaje adres |
|
|
|
Zle oceniłam firmę "Kamyczek" oraz jej właścicielkę za co bardzo przepraszam !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! |
|
|
|
Nie polecam tej firmy!! Po pierwsze słaba jakość wykonania, rozpad materiału po próbie wyciągnięcia z wilgotnych kartonów ( notabene kartony po ziemniakach i pomidorach )Cegła brudna.Grubość cegły różnorodna. Kąty przyciętych krawędzi wynosiły nie 45 stopni lecz nawet dochodziło do 90 stopni. Cegła z fugą nie zgadzała się z tą co była reklamowana na stronie "kamyczka". Zamówiłam towar 31 a odebrałam 16 tak więc czas oczekiwania bardzo długi no i co najważniejsze problemy ogromne z oddaniem towaru. Więcej napiszę po załatwieniu sprawy.Sprawa pewnie trafi w sądzie bo coś czuję że pieniędzy nie odzyskam. |
|
|
Zakres usług
Promuj profil
oijoeviehrif;wlefj'oiwfwecushdjhcbnsdjcmuhgfhlpghjklp;lkjhghjukl;'jb,n,kcl
sC,s.,gvbnm,.C?s.,dmcnhbs98f89pf[w;el,/msndbbc znx,mclz;X
'poicuhyvgcbnm,loiuytr56789o0p[=poiujg
Jesteśmy producentem płytek mineralnych będących rekonstrukcją kamienia naturalnego. Produkty jakie nasza firma ma do zaoferowania Partnerom Handlowym, odbiorcą hurtowym oraz klientom indywidualnym charakteryzuje najwyższa jakość wykonania na co pozwalają nam najlepsze surowce używane do produkcji oraz zastosowane technologie i procesy produkcyjne. Przewagą naszego przedsiębiorstwa nad konkurencją jest dbałość o klienta, świadczenie usług na najwyższym poziomie z zakresu doradztwa, montażu oraz najwyższa jakość produktów oferowanych w najlepszych cenach.
www.kamyczek.firmy.net
Moje specjalizacje
Rekomendowani specjaliści
Ostatnio przeglądani
Specjaliści w regionie
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny -1) 0/0/1
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny -1) 0/0/1
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
Ocena:
0
(wartość oceny 0) 0/0/0
|
|
|
|
|
|
|
|
|