Коментар по темата за ИИ

Ето един много интересен коментар от читател към мой текст за Изкуственият Интелект:


Човешкият мозък има 100 милиарда неврона свързани помежду си със 100 трилиона синапса сам по себе си е много, ама много голяма и сложна невронна мрежа. Най-голямата изкуствена невронна мрежа gpt3 създадена до момента има 175 милиарда параметъра (еквивалент на синапсите), което е 0,175% от човешкия мозък. А прави наистина уникални неща. Обучена на сървърна ферма в продължение на 3 месеца и на цената на сметка за електричество за няколко милиона долара. За да работи изисква RAM в размер на 650 гигабайта . Стандартния компютър има 8 до 16 гигабайта RAM днес. GPT4 се планира да има 100 трилиона параметъра - съпоставима бройка с човешкият мозък. Създаването му ще коства огромен ресурс. Ползването му също ще изисква чудовищна по размер сървърна ферма. Със своята енергийна икономичност човешкият мозък обаче е недостижим. Това което с енергията в един банан или ябълка може да сътвори, днешната технология ще изисква средна ТЕЦ или АЕЦ

Poli de la Riva