大学卒業旅行(2023年3月)として行った、メンバー総勢7名でのキャンピングカーでアメリカ大陸横断の旅について、思い出が風化しないようにnoteに残しておこうと思う。 早く書きたい早く書きたいと思いながら、分量が分量なので先延ばしにしてしまい、気づけば1年半が経っていた。 遠い昔のようで、昨日のようである、当時の自分が全身全霊をかけて挑んだ忘れられない旅を残しておこうと思う。 大学の卒業旅行などの長期休暇でアメリカへの旅行を考えている人はもちろん、アメリカのどこかの都市
今週もお疲れ様です。 この週次のnoteを書き始めて30週目。 今後の週次noteの方向性今週やったことを箇条書き的に書いていくのはもうやめにしようと思う。正直この1週間ほとんど仕事しかしていないし、仕事の内容で書けるものは一握りになってしまう。 具体的に行動を書くのは難しいので、今後の週次noteはその週思ったことや感じたことをつらつらと書いていく形式にしようと思う。 今週の振り返り今週何を感じたのだろうか、とカレンダーを見返していると、かなりの時間を展示会と資料作成
休学7ヶ月目終了。 【42tokyo】10月の振り返り:stay 10月はインターン2つと自分の事業の準備を言い訳にし、正直42tokyoをおざなりにしていました。 ただ校舎に行くことはしばしばあり、3月Piscineのメンバーと会うだけで何故かほっこりする幸せな時間であったことも事実。 確実に自分の心の拠り所となっているコミュニティの1つであると痛感させられますね。 こういう思い入れのある場所を増やしていきたい。 11月の目標:minishell計画 改めてペ
今週もお疲れ様です。 この週次のnoteを書き始めて29週目。 今週やったこと【展示会】高機能素材week DXなどITが絡まない展示会の方が、お客さんにAIの話が好評だとわかり、今週は期待を持って「高機能素材ウィーク」に参加しました。 感触は良好で、個人的に化学のバックグラウンドがあることも手伝い、たくさん話を聞くことができ、より深い疑問も持てたように思います。 プラント関連でお手伝いできそうなことが見えてきたので、しっかり話を詰めて価値提供に繋げていきたいと思いま
今週もお疲れ様です。 この週次のnoteを書き始めて28週目。 今週やったこと【展示会】Japan IT Week DX系の展示会は盛り上がりこそ見せているものの、どこも定義が明確でないまま「DX」「AI」というバズワードばかりを押し出してきてあまり差別化ができていない印象。だいぶいき慣れてきて、IT系のエキスポはしばらく来なくてもいいな、と感じることができたのも成長なのかもしれない。 【展示会】TOKYO PACK 2024 上記の展示会とは裏腹に、包装の展示会はと
今週もお疲れ様です。 この週次のnoteを書き始めて27週目。 今週やったこと【勉強会】シリコンバレー最重要思想家ナヴァル・ラヴィカント 「失敗とは何か」から、富と幸せの関係まで、自身の体験と深い教養に裏付けられたナヴァルの哲学的思想をぶつけられる一冊。 どの本もそうであるが、多分読む人の人生のフェーズによって捉え方が大きく変わる書籍と思うので定期的に読み返したい。 【勉強会】起業家のためのリスク&法律入門 学生起業家がおろそかにしがちな法務について、実際に弁護士の
ここまでの講義の流れをざっくりと振り返ると、 第2講:「PromptingとRAG」で学習済モデルの活用の仕方を、第3講:「Pre-training」にて事前学習の方法について、第4講:「Scaling Law」にて大規模化している背景について、第5講「Fine-tuning」にて事前学習モデルに対して追加の学習を行う手法について学んできた。 今回の第7講では、RLHF(Reinforcement Learning with Human Feedback)について。これは、
今週もお疲れ様です。 この週次のnoteを書き始めて26週目。 今週やったこと【Airion】ラスト1歩手前のスパート 普段の5倍の密度で開発を行わないといけない環境の中、エンジニアのメンバーもとても頑張ってくれ、なんとか山場を乗り越えることができました。 徹夜してなんとかしようとしてしまうところにまだ自分の未熟さを感じますが、一つ山を越えたことは達成感を感じます。 来週・再来週も最後までやり切ろう。 【基本情報】無事合格◎ 基本情報技術者試験をCBTで受験し、無
本日、基本情報技術者試験をCBT方式で受験し、無事に合格することができました。せっかくの経験なので、この受験期の記録をブログに残しておこうと思います。 最初は「友人に誘われたから」という軽い気持ちで受験を決めましたが、実際に学んでみると、システム開発の幅広い知識を網羅できる内容に驚きました。得意分野と苦手分野がはっきりと浮き彫りになるので、今後の学習計画を立てる上でも非常に有益でした。人気のITパスポートの次のステップとして、多くの人に支持されている理由が納得できます。
OpenAIが2024年9月12日に発表した最新GPT「o1-preview」。一部界隈ではすごさが認知されているような気がしますが、まだまだどのように使いこなせば良いかわからない人もいるのではないでしょうか。 今回発表された「o1」は開発段階で「Strawberry」と呼ばれていたモデルであり、推論に強みを持っているモデルになっております。 ChatGPTの最新モデルであるのにも関わらず、「GPT4-omni」など、これまでのシリーズの継続としなかった(GPT4-XXや
今週もお疲れ様です。 この週次のnoteを書き始めて25週目。 2025年のラスト1/4が始まった。 今週やったこと【note】アメリカ大陸横断 1年半前に大学の卒業旅行として1ヶ月かけて決行した、キャンピングカーでアメリカ大陸横断の旅。 ずっと何かに記録を残しておきたいなと思っていた旅をやっとnoteにまとめることができた。 基本的に、現地で書いていた雑メモと、たくさんの写真から当時の記憶を引き出しながらまとめていった。 まだまだ書けるところはあるし、本当に面白
ここまでの講義の流れをざっくりと振り返ると、 第2講:「PromptingとRAG」で学習済モデルの活用の仕方を学び、第3講:「Pre-training」にて事前学習の方法について、第4講:「Scaling Law」にて大規模化している背景について学んだ。 今回の第5講:「Fine-Tuning」では事前学習モデルに対して追加の学習を行う手法とそのモチベーションについて学んでいく。 イントロダクションOpenAI API Fine-Tuning 僕らが普段から使用してい
第二回の「PromptとRAG」に続いて、第3講では今の大規模言語モデルが生まれる転換点ともなったTransformerとそのその事前学習について学んでいく。 言語モデルとは大規模言語モデル(LLM)の話題に入る前に、まずそもそも言語モデルとは何か。 言語モデルの中にニューラルネットを用いた言語モデルがあり、その中にTransfomerというアーキテクチャがある、という包含関係。 言語モデルを一言で言うと、単語の連なりを生成確率でモデル化したものである。その中でも該当の
LLM関連で一番学んで即効性があるプロンプトと、今では企業内チャットでも浸透し始めているRAG。 この回はちゃんと理解しておくと実務に直結するので受講のモチベも高い人が多いと思うし、個人的にも楽しみにしていました。 LLMを追加学習させるのではなく、学習済みモデルをいかに価値の高い使い方をしていくかというテーマで講義が行われた。 単一モデルでの工夫:Prompting / In-Context Learing前半はモデル単体、雑に言い換えるとプロンプトの工夫についてであ
休学6ヶ月目終了。 ついに今学期の前半が終了し、後半が始まる。 【42tokyo】9月の振り返り:minitalk, EXAM01, FdF突破 minishellに取り掛かる前準備として、一気に課題を進めた1ヶ月であった。 push_swapは再提出が必要だが、それ以外のminitalk, EXAM01, FdFは無事通過できた。 3/7circle突破目前である。 10月の目標:minishell提出 ペア課題であるminishell。10月のうちに提出でき
今週もお疲れ様です。 この週次のnoteを書き始めて24週目。 今年も3/4が終わったことに衝撃を隠せない。 今週やったこと【42tokyo】FdF通過・push_swap提出 先週リジェクトされたFdFを修正し再提出。無事通過することができた。 push_swapもクイックソート(笑)で実装して提出したが、一部エラーハンドリングが正しくなく、再提出を余儀なくされた。 来週の前半は、Mac勢は42に入れないので週末辺りに再提出行こうと思う。 【note】書籍2冊・