Inhalt gelöscht Inhalt hinzugefügt
hier ist schon 100000 mal gemeint und nicht 100 mal? zudem typografisch korrekte anführungszeichen
Zeile 1:
Zeile 1:
'''Ashish Vaswani''' ist ein Informatiker, der im Bereich des [[Deep Learning|Deep Learnings]] arbeitet und für seine weltweit bedeutenden Beiträge auf dem Gebiet der [[Künstliche Intelligenz|künstlichen Intelligenz]] (KI) und der [[Computerlinguistik]] (NLP) bekannt ist.<ref>{{Internetquelle |url=https://scholar.google.com/citations?user=oR9sCGYAAAAJ&hl=en |titel=Ashish Vaswani |werk=Google Scholar |abruf=2024年02月07日}}</ref> Er ist einer der Mitautoren des wegweisenden wissenschaftlichen Papiers (削除) "Attention (削除ここまで) Is All You (削除) Need" (削除ここまで), welches das sogenannte [[Transformer (Maschinelles Lernen)|Transformer-Modell]] vorstellte, eine seinerzeit neuartige Architektur, die seitdem grundlegend für viele state-of-the-art Modelle in der Computerlinguistik geworden ist.<ref>{{Internetquelle |autor=Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit et al |url=https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf |titel=Attention Is All You Need |werk=Neurips |hrsg=Google Brain |sprache=en |abruf=2024年02月07日}}</ref><ref name=":0">{{Internetquelle |url=https://www.ft.com/content/37bb01af-ee46-4483-982f-ef3921436a50 |titel=Transformers: the Google scientists who pioneered an AI revolution |werk=Financial Times |abruf=2024年02月07日}}</ref> Die Transformer-Architektur ist das Kernstück von [[Sprachmodell|Sprachmodellen]], die Anwendungen wie [[ChatGPT]] ermöglichen. Er ist ehemaliger Forschungsmitarbeiter bei [[Google Brain]].<ref>{{Internetquelle |autor=Rob Toews |url=https://www.forbes.com/sites/robtoews/2023/09/03/transformers-revolutionized-ai-what-will-replace-them/ |titel=Transformers Revolutionized AI. What Will Replace Them? |sprache=en |abruf=2024年02月07日}}</ref><ref>{{Literatur |Titel=Meet the 4ドル Billion AI Superstars That Google Lost |Sammelwerk=Bloomberg.com |Datum=2023年07月13日 |Online=https://www.bloomberg.com/opinion/features/2023-07-13/ex-google-scientists-kickstarted-the-generative-ai-era-of-chatgpt-midjourney |Abruf=2024年02月07日}}</ref>
'''Ashish Vaswani''' ist ein Informatiker, der im Bereich des [[Deep Learning|Deep Learnings]] arbeitet und für seine weltweit bedeutenden Beiträge auf dem Gebiet der [[Künstliche Intelligenz|künstlichen Intelligenz]] (KI) und der [[Computerlinguistik]] (NLP) bekannt ist.<ref>{{Internetquelle |url=https://scholar.google.com/citations?user=oR9sCGYAAAAJ&hl=en |titel=Ashish Vaswani |werk=Google Scholar |abruf=2024年02月07日}}</ref> Er ist einer der Mitautoren des wegweisenden wissenschaftlichen Papiers (追記) „Attention (追記ここまで) Is All You (追記) Need" (追記ここまで), welches das sogenannte [[Transformer (Maschinelles Lernen)|Transformer-Modell]] vorstellte, eine seinerzeit neuartige Architektur, die seitdem grundlegend für viele state-of-the-art Modelle in der Computerlinguistik geworden ist.<ref>{{Internetquelle |autor=Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit et al |url=https://proceedings.neurips.cc/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf |titel=Attention Is All You Need |werk=Neurips |hrsg=Google Brain |sprache=en |abruf=2024年02月07日}}</ref><ref name=":0">{{Internetquelle |url=https://www.ft.com/content/37bb01af-ee46-4483-982f-ef3921436a50 |titel=Transformers: the Google scientists who pioneered an AI revolution |werk=Financial Times |abruf=2024年02月07日}}</ref> Die Transformer-Architektur ist das Kernstück von [[Sprachmodell|Sprachmodellen]], die Anwendungen wie [[ChatGPT]] ermöglichen. Er ist ehemaliger Forschungsmitarbeiter bei [[Google Brain]].<ref>{{Internetquelle |autor=Rob Toews |url=https://www.forbes.com/sites/robtoews/2023/09/03/transformers-revolutionized-ai-what-will-replace-them/ |titel=Transformers Revolutionized AI. What Will Replace Them? |sprache=en |abruf=2024年02月07日}}</ref><ref>{{Literatur |Titel=Meet the 4ドル Billion AI Superstars That Google Lost |Sammelwerk=Bloomberg.com |Datum=2023年07月13日 |Online=https://www.bloomberg.com/opinion/features/2023-07-13/ex-google-scientists-kickstarted-the-generative-ai-era-of-chatgpt-midjourney |Abruf=2024年02月07日}}</ref>
== Karriere ==
== Karriere ==
Zeile 5:
Zeile 5:
== Bemerkenswerte Werke ==
== Bemerkenswerte Werke ==
Vaswanis bemerkenswerteste Arbeit ist das im Jahr 2017 veröffentlichte Papier (削除) "Attention (削除ここまで) Is All You (削除) Need" (削除ここまで), welches Stand Februar 2024 über 100(削除) , (削除ここまで)000 Mal zitiert wurde. Dieses führte das sogenannte Transformer-Modell ein, das auf den Einsatz von [[Rekurrenz (Linguistik)|Rekurrenz]] in Sequenz-zu-Sequenz-Aufgaben verzichtet. Das Modell war wegweisend für die Entwicklung mehrerer nachfolgender Sprachmodelle in der Computerlinguistik, einschließlich [[Bidirectional Encoder Representations from Transformers|BERT]], [[GPT-2]] und [[Generative Pre-trained Transformer 3|GPT-3]].<ref name=":0" />
Vaswanis bemerkenswerteste Arbeit ist das im Jahr 2017 veröffentlichte Papier (追記) „Attention (追記ここまで) Is All You (追記) Need" (追記ここまで), welches Stand Februar 2024 über 100(追記) . (追記ここまで)000 Mal zitiert wurde. Dieses führte das sogenannte Transformer-Modell ein, das auf den Einsatz von [[Rekurrenz (Linguistik)|Rekurrenz]] in Sequenz-zu-Sequenz-Aufgaben verzichtet. Das Modell war wegweisend für die Entwicklung mehrerer nachfolgender Sprachmodelle in der Computerlinguistik, einschließlich [[Bidirectional Encoder Representations from Transformers|BERT]], [[GPT-2]] und [[Generative Pre-trained Transformer 3|GPT-3]].<ref name=":0" />
== Einzelnachweise ==
== Einzelnachweise ==
Version vom 7. Februar 2024, 11:35 Uhr
Ashish Vaswani ist ein Informatiker, der im Bereich des Deep Learnings arbeitet und für seine weltweit bedeutenden Beiträge auf dem Gebiet der künstlichen Intelligenz (KI) und der Computerlinguistik (NLP) bekannt ist.[1] Er ist einer der Mitautoren des wegweisenden wissenschaftlichen Papiers „Attention Is All You Need", welches das sogenannte Transformer-Modell vorstellte, eine seinerzeit neuartige Architektur, die seitdem grundlegend für viele state-of-the-art Modelle in der Computerlinguistik geworden ist.[2] [3] Die Transformer-Architektur ist das Kernstück von Sprachmodellen, die Anwendungen wie ChatGPT ermöglichen. Er ist ehemaliger Forschungsmitarbeiter bei Google Brain.[4] [5]
Karriere
Vaswani schloss sein Ingenieurstudium der Informatik am Birla Institute of Technology Mesra im Jahr 2002 ab. Im Jahr 2004 zog er in die USA, um an der University of Southern California sein Studium fortzusetzen. Er promovierte an der University of Southern California.[6] Danach arbeitete er als Forscher bei Google, wo er Teil des Google Brain Teams war. Er war Mitbegründer von Adept AI Labs, verließ jedoch das Unternehmen.
Bemerkenswerte Werke
Vaswanis bemerkenswerteste Arbeit ist das im Jahr 2017 veröffentlichte Papier „Attention Is All You Need", welches Stand Februar 2024 über 100.000 Mal zitiert wurde. Dieses führte das sogenannte Transformer-Modell ein, das auf den Einsatz von Rekurrenz in Sequenz-zu-Sequenz-Aufgaben verzichtet. Das Modell war wegweisend für die Entwicklung mehrerer nachfolgender Sprachmodelle in der Computerlinguistik, einschließlich BERT, GPT-2 und GPT-3.[3]
Einzelnachweise
- ↑ Ashish Vaswani. In: Google Scholar. Abgerufen am 7. Februar 2024.
- ↑ Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit et al: Attention Is All You Need. In: Neurips. Google Brain, abgerufen am 7. Februar 2024 (englisch).
- ↑ a b Transformers: the Google scientists who pioneered an AI revolution. In: Financial Times. Abgerufen am 7. Februar 2024.
- ↑ Rob Toews: Transformers Revolutionized AI. What Will Replace Them? Abgerufen am 7. Februar 2024 (englisch).
- ↑ Meet the 4ドル Billion AI Superstars That Google Lost. In: Bloomberg.com. 13. Juli 2023 (bloomberg.com [abgerufen am 7. Februar 2024]).
- ↑ Ashish Vaswani. In: Researchgate. Researchgate, abgerufen am 7. Februar 2024 (englisch).